Annonce des prochains cas du Conseil
16 septembre 2021
Aujourd’hui, le Conseil présente trois nouveaux cas qu’il va examiner.
Sélection des cas
Puisque nous ne pouvons pas traiter tous les cas, le Conseil donne la priorité à ceux pouvant potentiellement toucher de nombreuses personnes à travers le monde, ayant une importance cruciale pour le débat public ou soulevant des questions majeures sur les règles de Facebook.
Les cas que nous annonçons aujourd’hui sont les suivants :
2021-012-FB-UA
Recours pour restaurer un contenu sur Facebook
Envoyez un commentaire public ici.
Au mois d’août 2021, un utilisateur de Facebook a publié la photo d’une œuvre d’art indigène, accompagnée d’une description rédigée en anglais. La photo représentait une ceinture wampum traditionnelle, faite de coquillages ou de perles. Sur la ceinture, apparaissait une série de représentations qui, selon l’auteur, s’inspiraient de « the Kamloops story » (l’histoire de Kamloops), une référence aux tombes anonymes découvertes sur le site d’un ancien pensionnat autochtone en Colombie-Britannique, au Canada.
D’après le texte, cette œuvre, qui a pour titre « Kill the Indian/Save the Man » (Tuez l’Indien / Sauvez l’Homme), a été créée par l’utilisateur. Le texte contient par ailleurs les expressions « Theft of the Innocent » (Vol de l’innocent), « Evil posing as Saviors » (Le Diable se fait passer pour le Sauveur), « Residential School/Concentration Camp » (Pensionnat / Camp de concentration), « Waiting for Discovery » (« En attendant la découverte) et « Bring Our Children Home » (Rendez-nous nos enfants). Chacune de ces expressions semble correspondre à une série de représentations présentes sur la ceinture wampum.
L’utilisateur explique que les ceintures wampum ont « always been a means of documenting our history » (toujours été un moyen de raconter notre histoire) et qu’avant la colonisation, les conteurs voyageaient de village en village pour « teaching our people our history » (enseigner l’histoire à notre peuple). Il indique que ses ceintures jouent aujourd’hui un rôle très similaire, mais qu’elles voyagent désormais grâce aux médias sociaux et aux expositions. Il explique que la création de cette ceinture n’a pas été chose aisée, qu’il avait été très ému de raconter cette histoire, mais qu’elle était également bien trop importante pour ne pas être documentée. Par ailleurs, il révèle que cette ceinture fera partie d’un ensemble de trois ceintures, et qu’elle ne sera pas mise en vente puisqu’elle raconte une histoire qui ne doit pas à nouveau être cachée au public.
L’utilisateur explique qu’il a créé cette ceinture après avoir entendu l’histoire de Kamloops dans les médias. Cette histoire fait référence aux tombes anonymes découvertes sur le site d’un ancien pensionnat autochtone en Colombie-Britannique au Canada. Dans sa publication, il présente ses excuses aux survivants si ses ceintures ravivent leur douleur et il précise que là n’est pas son intention. Son « sole purpose is to bring awareness to this horrific story »(seul but est de faire connaître cette histoire horrible).
Facebook avait supprimé ce contenu en vertu de ses Standards de la communauté relatifs au discours haineux. À la suite de la sélection de ce cas par le Conseil, Facebook a reconnu que cette suppression constituait une « erreur d’application » et a restauré le contenu. Ce dernier est toujours en ligne sur la plate-forme. Au moment de sa suppression, le contenu avait été vu plus de 4 000 fois et partagé plus de 50 fois. Aucun utilisateur n’a signalé ce contenu.
En vertu de sa politique relative au discours haineux, Facebook supprime le contenu ciblant des personnes avec un « discours violent » sur la base de caractéristiques protégées, par exemple l’origine ethnique et nationale. L’identité et l’origine indigènes ne sont pas expressément répertoriées comme des caractéristiques protégées. La politique prévoit les exceptions suivantes : « Nous reconnaissons que les utilisateurs partagent parfois des contenus incluant un discours haineux de quelqu'un d'autre pour le condamner ou sensibiliser les autres à son égard. Dans d’autres cas, des discours qui pourraient enfreindre nos standards peuvent être utilisés de manière autoréférentielle ou de manière valorisante. Nos politiques sont conçues pour permettre ce type de discours, mais nous demandons aux utilisateurs d’indiquer clairement leurs intentions. Nous nous réservons le droit de supprimer le contenu concerné lorsque l’intention n’est pas claire. »
Dans son appel, l’utilisateur affirme être un artiste traditionnel qui partage son œuvre et précise que cela est important pour documenter l’histoire. Il considère cette suppression comme de la censure et indique qu’il est important que sa publication puisse être vue.
Le Conseil aimerait recevoir des commentaires publics sur les points suivants :
- La décision initiale de Facebook de supprimer la publication était-elle conforme ou non aux Standards de la communauté relatifs au discours haineux et aux valeurs de l’entreprise, ainsi qu’à ses responsabilités et à ses engagements en matière de droits humains ?
- Les questions que soulève la modération de Facebook relative à l’expression artistique, notamment l’art qui pourrait aborder des thèmes sensibles.
- L’histoire et l’utilisation de l’expression « Kill the Indian/Save the Man » (Tuez l’Indien / Sauvez l’Homme) en Amérique du Nord.
- Des informations contextuelles sur la violation des droits humains des enfants d’origine ou d’identité indigènes dans les pensionnats au Canada, notamment des enfants autochtones au pensionnat de Kamloops.
- L’identité et l’origine indigènes devraient-elles ou non être considérées comme des caractéristiques protégées dans la politique relative au discours haineux de Facebook ?
- En quoi la modération du contenu sur Facebook, y compris l’utilisation de l’automatisation, a-t-elle un impact sur la liberté d’expression des peuples indigènes, et comment les impacts négatifs pourraient-ils être évités ou réduits ?
Dans ses décisions, le Conseil peut fournir des recommandations de politiques à Facebook. Bien que ces recommandations ne soient pas contraignantes, Facebook doit y répondre sous 30 jours. De ce fait, le Conseil appréciera tout commentaire public proposant des recommandations pertinentes pour ce cas.
2021-013-IG-UA
Appel pour restaurer un contenu sur Instagram
Envoyez un commentaire public ici.
Au mois de juillet 2021, le compte Instagram d’une école spirituelle située au Brésil a publié la photo d’un pot et de deux bouteilles contenant un liquide marron foncé. Il s’agissait, selon le texte en portugais qui accompagnait la photo, d’ayahuasca. L’ayahuasca est un breuvage à base de plantes aux propriétés hallucinogènes, utilisé à des fins spirituelles et cérémoniales dans certains pays d’Amérique du Sud.
Le texte affirme que « AYAHUASCA IS FOR THOSE WHO HAVE THE COURAGE TO FACE THEMSELVES » (L’AYAHUASCA EST POUR CEUX QUI ONT LE COURAGE DE FAIRE FACE À EUX-MÊMES), puis donne des informations sur ce breuvage. Il comprend des déclarations selon lesquelles l’ayahuasca est pour ceux qui souhaitent « correct themselves » (se corriger), « enlighten » (s’éveiller), « overcome fears » (dépasser leurs peurs) et « break free » (se libérer). Par ailleurs, le texte indique que l’ayahuasca est un « remedy » (remède) et « can help you » (peut vous aider), si vous faites preuve d’humilité et de respect. Il précise que l’ayahusca révèle la vérité mais ne fait pas de miracles. Il se termine par la phrase « Ayahuasca, Ayahuasca!/Gratitude, Queen of the Jungle! » (Ayahuasca, Ayahuasca ! / Gratitude envers la reine de Jungle !)
Le contenu a été vu plus de 15 500 fois et aucun utilisateur ne l’a signalé. Facebook a supprimé le contenu car il ne respectait pas les Règles de la communauté d’Instagram , qui indiquent : « Lorsque vous proposez de vendre ou d’acheter d’autres produits réglementés, n’oubliez pas de toujours respecter la loi » et qui renvoient aux Standards de la communauté Facebook relatifs aux marchandises réglementées. La politique relative aux marchandises réglementées interdit le contenu lié aux « drogues non médicales » qui « reconnaît une consommation personnelle sans confirmation ou référence à la récupération, le traitement ou une autre aide pour lutter contre la consommation » ou qui « coordonne ou promeut (c’est-à-dire en parle positivement, encourage à leur utilisation ou fournit des instructions pour en utiliser ou en faire) des médicaments non médicaux. »
L’utilisateur explique dans son appel qu’il est certain que sa publication n’enfreint pas les Règles de la communauté d’Instagram, puisque sa page est informative et n’a jamais encouragé ou recommandé l’achat ou la vente de quelque produit interdit par les Règles de la communauté que ce soit. Il précise que la photo a été prise lors d’une des cérémonies de son école, qui sont réglementées et légales. Selon l’utilisateur, le compte a pour objectif de démystifier cette boisson sacrée. Il souligne un manque de connaissances flagrant concernant l’ayahuasca. Selon lui, ce breuvage apporte un bien-être spirituel aux personnes qui en consomment et ses cérémonies peuvent améliorer le bien-être au sein de la société. Il précise par ailleurs qu’il avait précédemment publié le même contenu sur son compte et que la publication est toujours en ligne.
Le Conseil aimerait recevoir des commentaires publics sur les points suivants :
- La décision de Facebook de supprimer la publication est-elle conforme ou non aux Règles de la communauté d’Instagram, notamment lorsqu’elles rappellent de « suivre la loi » concernant la vente ou l’achat de marchandises réglementées, ainsi qu’aux Standards de la communauté Facebook sur les marchandises réglementées, notamment aux règles concernant le fait de parler positivement des médicaments non médicaux, d’encourager ou de promouvoir leur utilisation ?
- Les politiques de Facebook sur la réglementation des médicaments non médicaux devraient-elles prendre en compte les différentes approches juridiques au niveau national ou bien prévoir une règle distincte en cas de discussions positives les concernant dans le contexte de pratiques religieuses ou spirituelles ? La clarté de la relation entre les Règles de la communauté d’Instagram et les Standards de la communauté Facebook, notamment en ce qui concerne les marchandises réglementées.
- La décision de Facebook de supprimer la publication est-elle conforme ou non aux valeurs de l’entreprise ainsi qu’à ses responsabilités et à ses engagements en matière de droits humains, notamment en ce qui concerne la liberté d’expression et la liberté de culte et de croyances ?
- Des informations relatives à l’utilisation et à la signification de l’ayahuasca, notamment dans un contexte religieux ou cérémonial, chez différents groupes en Amérique du Sud.
- Des informations sur la façon dont l’utilisation de l’ayahuasca pourrait affecter la santé physique et mentale et/ou la sécurité des personnes.
Dans ses décisions, le Conseil peut fournir des recommandations de politiques à Facebook. Bien que ces recommandations ne soient pas contraignantes, Facebook doit y répondre sous 30 jours. De ce fait, le Conseil appréciera tout commentaire public proposant des recommandations pertinentes pour ce cas.
2021-014-FB-UA
Recours pour restaurer un contenu sur Facebook
Envoyez un commentaire public ici.
À la fin du mois de juillet 2021, la publication en amharique d’un utilisateur Facebook affirmait que le Front de libération du peuple du Tigré (TPLF) avait tué et violé des femmes et des enfants, et pillé des propriétés de civils dans le district de Raya Kobo et dans d’autres villes de la région d’Amhara en Éthiopie. L’utilisateur affirmait également que les civils tigréens avaient aidé le TPLF à perpétrer ces crimes.
L’utilisateur commence par affirmer que « people in the area » (les personnes de la région) ont indiqué que le district de Raya Kobo est déserte et qu’elle avait été pillée avant l’arrivée du « rebel group » (groupe rebelle) TPLF. Il affirme ensuite que dans le district de Raya Kobo, à Kobo City, à Aradum, à Menjelo, à Robit et à Gobye, des enfants et des femmes mariées ont été violés et que des jeunes ont été tués par balles. L’utilisateur prétend que des fermiers ont été tués « by the terrorist group » (par le groupe terroriste) pour avoir dit « I don’t like the color of your eyes » (Je n’aime pas la couleur de vos yeux). Il indique également que « mothers in the area » (les mères dans cette région) n’ont rien à manger, qu’elles sont extrêmement mal traitées et forcées de nourrir le TPLF. Il explique également que « the Tigray rebel group » (le groupe rebelle du Tigré) a annoncé qu’une carte d’identité mentionnant « Tigre » (Tigré) serait donnée aux membres de la communauté vivant dans le district de Raya Kobo. Il ajoute que le TPLF « appealed to everyone they meet on the phone » (avait lancé un appel auprès de chaque personne avec laquelle il s’entretenait par téléphone) et les informait que le gouvernement avait « sold » (vendu) « the part of Amhara from Alawha and beyond » (la partie d’Amhara qui va d’Alawha et s’étend au-delà). Il affirme par ailleurs que le TPLF a amené et exécuté publiquement des « innocent youths » (jeunes innocents) d’Alamata, de Korem et d’autres villes du district de Raya Kobo. Selon lui, ils ont fait cela pour paraître crédibles au sein de la communauté de Raya Kobo. » Il explique que le TPLF a menti et a déçu la communauté en déclarant que les jeunes exécutés étaient des voleurs qui les avaient suivis depuis le Tigré et qui ne parlaient pas l’amharique. De plus, l’utilisateur affirme que le TPLF s’installe dans chaque centre de santé et dans chaque école de « every town where the crowds live »(toutes les villes peuplées) pour « annihilate the people » (anéantir la population) en cas d’attaque aérienne. Enfin, il affirme que des personnes vivant dans la région lui ont signalé que « the Tigreans, who know the area very well » (les tigréens, qui connaissent très bien la région) avaient accompagné le TPLF aux portes des maisons pour qu’ils puissent violer des femmes et piller des propriétés. L’utilisateur termine sa publication en déclarant « We will secure our freedom through our struggle » (Nous assurerons notre liberté par la lutte).
Dans sa publication, l’utilisateur ne prétend pas être un témoin oculaire des évènements décrits. Par ailleurs, la publication n’attribue aucune de ces déclarations ou de ces allégations à quelques individus, institutions ou médias expressément nommés que ce soit. Elle ne contient pas de liens hypertextes vers des ressources externes ni d’images.
La publication a été vue plus de 6 500 fois, et a reçu moins de 35 commentaires et plus de 140 réactions. Elle a été partagée plus de 30 fois. Selon Facebook, le compte de l’utilisateur qui a publié le contenu est situé en Éthiopie, mais pas dans la région du Tigré ou d’Amhara. La photo de profil de l’utilisateur contient un hashtag exprimant sa désapprobation envers le TPLF. La publication est restée sur la plate-forme pendant environ un jour. Elle a été signalée automatiquement. Facebook a alors supprimé cette publication en vertu de ses Standards de la communauté relatifs au discours haineux. À ce stade, le Conseil ne sait pas si la publication a été examinée par un modérateur humain ou supprimée automatiquement. À la suite de la sélection de ce cas par le Conseil, Facebook a reconnu que la suppression de cette publication constituait une « erreur d’application » et l’a restaurée.
La section Niveau 1 relative au discours haineux interdit aux utilisateurs de Facebook de publier du contenu ciblant un groupe de personnes avec des généralisations ou des déclarations selon lesquelles ces personnes seraient des criminels violents, des criminels sexuels ou autres criminels. La justification de la Politique relative au discours haineux indique que Facebook reconnaît que « les utilisateurs partagent parfois des contenus incluant un discours haineux de quelqu'un d'autre pour le condamner ou sensibiliser les autres à son égard » et que les « politiques sont conçues pour permettre ce type de discours, mais nous demandons aux utilisateurs d’indiquer clairement leur intention. Nous nous réservons le droit de supprimer le contenu concerné lorsque l’intention n’est pas claire. »
La justification de la Politique relative au discours haineux a été mise à jour au mois de juin 2021 afin d’expliquer clairement que l’entreprise « défini[t] les discours haineux comme une attaque directe contre des personnes, plutôt que contre des concepts ou des institutions,fondée sur ce que nous appelons des caractéristiques protégées : [...] » [mis en gras]. Lors de la mise à jour de la politique, au mois de juin 2021, Facebook a ajouté une nouvelle règle sous le titre « Nous demandons du contexte et/ou des informations supplémentaires pour assurer le respect des Standards de la communauté suivants ». La nouvelle règle interdit le contenu « attaquant des concepts, des institutions, des idées, des pratiques ou des croyances associés à des caractéristiques protégées, susceptibles de contribuer à des blessures physiques imminentes, à de l’intimidation ou à de la discrimination envers des personnes associées aux caractéristiques protégées concernées. Facebook examine une série de signes pour déterminer si le contenu présente une menace de préjudice. Il s’agit notamment du contenu susceptible d’inciter à la violence ou à l'intimidation imminente, de l’existence d’une période de tension accrue, telle qu’une élection ou un conflit en cours, et de l’existence d’antécédents récents de violence à l’encontre du groupe protégé visé. Dans certains cas, nous pouvons également examiner si l’intervenant est une personnalité publique ou occupe une fonction d’autorité. »
Dans ce cas, bien que le contenu soit en amharique, l’utilisateur a fait appel auprès du Conseil en anglais. Il a indiqué dans son appel que la publication était destinée à protéger sa communauté qui se trouve en danger et que Facebook devrait aider les communautés en zones de guerre. Il affirme que sa publication n’incite pas à la haine « but is truth » (et qu’elle relate la vérité). Il déclare que le TPLF a ciblé sa communauté, qui se compose d’un million de personnes, et l’a privée de nourriture, d’eau et autres besoins de première nécessité. L’utilisateur a également émis l’hypothèque que sa publication avait été signalée « by members and supporters of that terrorist group » (par des membres et des soutiens de ce groupe terroriste) et affirme « know well most of the rules » (bien connaître les règles) et n’avoir « never broken any rules of Facebook » (jamais enfreint les règles Facebook).
Le Conseil aimerait recevoir des commentaires publics sur les points suivants :
- La décision initiale de Facebook de supprimer la publication est-elle conforme ou non aux Standards de la communauté relatifs au discours haineux et aux valeurs de l’entreprise, ainsi qu’à ses responsabilités et à ses engagements en matière de droits humains ?
- La politique relative au discours haineux de Facebook permet-elle ou non aux utilisateurs de suffisamment sensibiliser les autres au sujet des violations des droits humains supposées, notamment dans des zones de conflits ?
- Les défis concernant la modération de contenu spécifiques à l’Éthiopie et aux langues parlées dans le pays, qu’il s’agisse du respect de la liberté d’expression ou de la lutte contre les préjudices qui pourraient résulter du discours haineux, notamment en périodes de tensions ou de conflits accrus.
- Les tendances récentes concernant l’utilisation ou la diffusion, en langues éthiopiennes, de discours haineux ou de fausses informations par des parties impliquées dans le conflit, et par des civils prenant part aux discussions s’y rapportant, ainsi que rôle de Facebook. Il serait utile que ces commentaires fournissent le contexte socio-politique et historique de ces tendances, notamment en ce qui concerne les relations entre les groupes ethniques présents dans les lieux que la publication mentionne.
- Le rôle actuel et la composition du TPLF en Éthiopie, notamment toute distinction entre ses fonctions politiques et paramilitaires. Mais aussi le comportement du TPLF ou celui d’autres groupes lors du conflit décrit dans la publication, en particulier toute violation supposée des droits humains dans les lieux cités dans le contenu.
- Les défis auxquels les chercheurs et les journalistes pourraient être confrontés pour parler d’atrocités par le biais de Facebook, notamment pour rassembler des preuves désignant les responsables, ainsi que la responsabilité de Facebook concernant la préservation du contenu et la garantie d’y accéder.
Dans ses décisions, le Conseil peut fournir des recommandations de politiques à Facebook. Bien que ces recommandations ne soient pas contraignantes, Facebook doit y répondre sous 30 jours. De ce fait, le Conseil appréciera tout commentaire public proposant des recommandations pertinentes pour ce cas.
Commentaires publics
Si vous ou votre organisation pensez que vous pouvez apporter un regard différent sur les cas mentionnés aujourd’hui et aider le Conseil à prendre une décision, envoyez vos contributions en utilisant les liens ci-dessus. Les commentaires publics pour ces cas seront ouverts jusqu’au jeudi 30 septembre à 15 h 00 UTC, soit pendant une période de 14 jours.
Et après ?
Dans les semaines à venir, les membres du Conseil délibèreront sur ces cas. Lorsqu’ils auront rendu leurs décisions finales, nous les publierons sur le site web du Conseil de surveillance. Pour recevoir des mises à jour lorsque le Conseil annonce de nouveaux cas ou publie des décisions, inscrivez-vous ici.