Le Conseil de surveillance annonce de nouveaux cas et examine les politiques de Meta en matière de fausses informations sur le COVID-19
26 juillet 2022
Aujourd’hui, le Conseil de surveillance a annoncé avoir accepté une demande d’avis consultatif formulée par Meta sur la suppression des fausses informations sur le COVID-19. Le Conseil a également annoncé de nouveaux cas à traiter sur les sujets de l’identité de genre et de la nudité, du discours haineux et de l’invasion de l’Ukraine par la Russie, et de la musique drill britannique.
Dans le cadre de cet avis consultatif en matière de politiques et de ces nouveaux cas, nous invitons à la fois les personnes et les organisations à nous envoyer des commentaires publics.
- Pour nous envoyer vos commentaires sur l’avis consultatif en matière de politiques sur le COVID-19, cliquez ici.
- Pour nous envoyer vos commentaires sur les cas concernant l’identité de genre et la nudité, cliquez ici.
- Pour nous envoyer vos commentaires sur le cas concernant le poème russe, cliquez ici.
- Pour nous envoyer vos commentaires sur le cas concernant la musique drill britannique, cliquez ici.
Avis consultatif en matière de politiques
En plus d’examiner des cas individuels afin de déterminer s’il convient de supprimer ou de restaurer du contenu, le Conseil peut accepter d’orienter Meta sur ses politiques de contenu au sens large. Après réception de la demande de Meta et des contributions de parties prenantes externes, le Conseil fournit des recommandations détaillées sur les changements que Meta devrait apporter à ses politiques concernant certains sujets.
Meta doit envoyer les recommandations du Conseil via son processus officiel de développement de politiques et fournir des mises à jour régulières à ce sujet, notamment par l’intermédiaire de Newsroom. Si l’avis consultatif en matière de politiques du Conseil n’est pas contraignant, Meta doit toutefois y fournir une réponse publique et prendre des mesures pour en assurer le suivi dans les 60 jours suivant la réception de nos recommandations.
À ce jour, le Conseil a fourni deux autres avis consultatifs en matière de politiques. Le premier, sur le partage d’informations privées sur le lieu de résidence sur Facebook et Instagram, a été publié en février 2022, et un examen du système de vérification croisée de Meta a été lancé en octobre 2021.
Suppression des fausses informations sur le COVID-19 (avis consultatif en matière de politiques 2022-01)
Pour envoyer un commentaire public, cliquez ici.
Meta a demandé un avis consultatif en matière de politiques sur son approche des fausses informations sur le COVID-19, telle que décrite dans la politique de l’entreprise sur les fausses informations nuisibles sur la santé.
La demande de Meta au Conseil est disponible dans son intégralité ici.
Meta a demandé au Conseil s’il était préférable de continuer à supprimer du contenu en vertu de cette politique ou si une autre approche, moins restrictive, correspondrait mieux aux valeurs de l’entreprise et à ses responsabilités en matière de droits de la personne.
Meta a informé le Conseil que son approche des fausses informations sur ses plateformes consistait principalement à mettre les allégations potentiellement fausses en contexte et à réduire leur couverture plutôt que de supprimer le contenu. La suppression des fausses informations à grande échelle peut empiéter sur la liberté d’expression, car il est difficile de définir les fausses informations avec précision en raison du large éventail de sujets abordés. L’entreprise a toutefois commencé à adopter une approche différente en janvier 2020, lorsqu’il est devenu évident que le COVID-19 allait avoir des répercussions mondiales. Meta a supprimé des catégories entières de fausses informations sur la pandémie de ses plateformes. Pour se justifier, Meta explique que « des spécialistes externes du secteur de la santé nous ont expliqué que les fausses informations sur le COVID-19, notamment les fausses allégations sur les remèdes, le port du masque, la distanciation sociale et la transmissibilité du virus, étaient susceptibles d’entraîner des blessures physiques imminentes ».
L’approche actuelle de Meta consiste à supprimer les fausses informations susceptibles de contribuer directement au risque de blessures physiques imminentes et à étiqueter, vérifier et rétrograder les fausses informations qui ne respectent pas son standard sur les « blessures physiques imminentes ».
Selon Meta, l’entreprise « supprime les fausses informations sur la santé si les critères suivants sont remplis : (1) il s’agit d’une urgence de santé publique ; (2) les principales autorités sanitaires mondiales ou locales nous indiquent qu’une allégation donnée est fausse ; et (3) ces autorités nous indiquent que l’allégation est susceptible de contribuer directement au risque de blessures physiques imminentes. » L’article des Pages d’aide sur le COVID-19 fournit une liste de 80 « fausses allégations distinctes » que l’entreprise supprime car « selon un spécialiste externe compétent, elles contribuent directement au risque de blessures physiques imminentes ». Ces allégations comprennent les faux remèdes, les fausses informations conçues pour décourager de suivre un traitement, les fausses informations sur la prévention, les fausses informations sur l’accès aux ressources de santé ou leur disponibilité et les fausses informations sur le lieu ou la gravité d’une épidémie.
Pour le contenu qui ne relève pas de ces standards en matière de suppression, l’entreprise s’appuie sur des organisations de vérification tierce pour examiner le contenu le plus viral et déterminer s’il est exact. Les médias de vérification indépendants examinent des contenus individuels et peuvent les étiqueter comme « faux », « retouchés », « partiellement faux » ou « manque de contexte ». Le contenu évalué comme « faux » ou « retouché » est recouvert par un écran d’avertissement qui oblige à cliquer pour afficher le contenu. L’écran d’avertissement fournit également des liens vers des articles que le média de vérification a fournis pour réfuter l’allégation. L’étiquette qui est ajouté au contenu évalué comme « partiellement faux » ou « manque de contexte » est moins intrusive. Elle n’obscurcit pas la publication et n’oblige pas à cliquer pour afficher le contenu. Elle comprend également un lien vers des articles fournis par le média de vérification. Selon Meta, le contenu évalué comme « faux », « retouché » ou « partiellement faux » est rétrogradé dans le fil, tandis que celui étiqueté « manque de contexte » n’est généralement pas rétrogradé.
Meta dit également employer une mesure de réduction d’urgence temporaire lorsque « de fausses informations sur une crise se propagent rapidement sur nos plateformes et nos médias de vérification tiers n’ont pas le temps d’évaluer toutes ces allégations ». Dans ces circonstances, l’entreprise déclare rétrograder à grande échelle les allégations importantes et évaluées à plusieurs reprises.
Dans sa demande, Meta indique que, dans certains cas, une étiquette redirigeant vers le Centre d’information sur le COVID-19 de Meta pourra être ajoutée au contenu conforme sur le COVID-19. Selon l’entreprise, « [c]es étiquettes n’indiquent pas si la publication est vraie ou fausse ».
Dans sa demande d’avis consultatif en matière de politiques, Meta indique que l’évolution du COVID-19 est la raison pour laquelle l’entreprise a besoin de l’avis du Conseil sur son approche actuelle. Premièrement, Meta considère qu’au début de la pandémie, il n’y avait pas assez de directives officielles, et que « ce manque d’informations a facilité la propagation de rumeurs, de spéculations et de fausses informations ». Aujourd’hui, l’accès à l’information s’est amélioré. « Si les fausses informations sur le COVID-19 continuent d’exister, des informations factuelles et basées sur des données sur la pandémie sont publiées à un rythme effréné. » Deuxièmement, en raison du développement de vaccins, des traitements thérapeutiques et de l’évolution des variantes de la maladie, le COVID-19 est désormais moins mortel. Enfin, Meta déclare que « les autorités sanitaires font des recherches afin de déterminer si le COVID-19 a évolué vers une forme moins grave ». Dans sa demande au Conseil, Meta reconnaît que le cours de la pandémie a changé et continuera de le faire. L’entreprise mentionne que la variation des taux de vaccination, la capacité et les ressources des systèmes de soins de santé et le fait que le public a moins confiance dans les directives gouvernementales contribuent à l’effet disproportionné que la maladie aura sur la population de différents pays.
Dans sa demande, Meta mentionne les décisions antérieures liées au COVID-19 du Conseil, « Guérison du COVID revendiquée » et « Confinements pour COVID au Brésil ». La réponse de Meta aux recommandations en matière de politiques du Conseil dans ces cas peut être trouvée ici.
Questions posées au Conseil par Meta :
Meta a proposé les options de politiques suivantes au Conseil :
- Continuer à supprimer certaines fausses informations sur le COVID-19. Il s’agirait de poursuivre l’approche actuelle de Meta consistant à supprimer le contenu qui contribue directement au risque de blessures physiques imminentes. Meta déclare que si cette option est choisie, l’entreprise finirait par arrêter de supprimer les fausses informations si elles ne présentent plus de risque imminent et demande au Conseil de lui indiquer comment prendre cette décision.
- Mesures de réduction d’urgence temporaires. Si cette option est choisie, Meta réduirait la diffusion des fausses informations sur le COVID-19 plutôt que de les supprimer. Il s’agirait d’une mesure temporaire et l’entreprise demanderait au Conseil de lui indiquer quand arrêter de l’utiliser si elle est adoptée.
- Vérification tierce. Si cette option est choisie, le contenu actuellement sujet à suppression serait envoyé à des médias de vérification indépendants pour évaluation. Meta note que « le nombre de médias de vérification disponibles pour évaluer le contenu sera toujours limité. Si cette option est choisie, les médias de vérification ne pourraient pas examiner tout le contenu sur le COVID-19 sur nos plateformes, et certains d’entre eux ne seraient pas donc vérifiés, rétrogradés ni étiquetés. »
- Étiquettes. Si cette option est choisie, Meta ajouterait des étiquettes au contenu. Ces étiquettes n’empêcheraient pas le public de voir le contenu, mais comprendraient des liens directs vers des informations officielles. Meta considère qu’il s’agit d’une mesure temporaire et aimerait que le Conseil lui indique sur quels facteurs se baser pour décider d’arrêter d’utiliser ces étiquettes.
Meta a expliqué au Conseil que chacune de ces options présente à la fois des avantages et des inconvénients, notamment en termes d’évolutivité, de précision et de quantité de contenu concerné. Pour des raisons techniques, l’entreprise préfère adopter une approche mondiale que plusieurs approches spécifiques au pays ou à la région.
Bien que le Conseil examinera les options fournies par Meta, ses recommandations et son avis consultatif en matière politiques pourraient ne pas se limiter à ces options.
Le Conseil demande des commentaires publics sur les points suivants :
- La prévalence et les répercussions des fausses informations sur le COVID-19 en fonction du pays ou de la région, en particulier là où Facebook et Instagram sont les principaux moyens de partage d’informations, et aux endroits où l’accès aux soins de santé, notamment aux vaccins, est limité.
- L’efficacité des interventions pour lutter contre les fausses informations sur le COVID-19 sur les médias sociaux, y compris leur impact sur la propagation des fausses informations, la confiance dans les mesures de santé publique et les résultats en matière de santé publique, et la liberté d’expression, en particulier le discours civique et le débat scientifique.
- Les critères que Meta doit appliquer pour lever les interventions temporaires en matière de fausses informations à mesure que les situations d’urgence évoluent.
- L’utilisation de systèmes de recommandation ou d’algorithmes pour détecter et traiter les fausses informations, et les moyens d’améliorer la précision et la transparence de ces systèmes.
- Le traitement équitable des personnes dont la liberté d’expression est affectée par les interventions pour lutter contre les fausses informations sur la santé sur les médias sociaux, y compris la possibilité de contester les étiquettes, les écrans d’avertissement ou la rétrogradation du contenu.
- Des principes et recommandations pour orienter les rapports de transparence de Meta sur ses interventions en réponse aux fausses informations sur la santé.
Commentaires publics
Une partie importante du processus de développement d’un avis consultatif en matière de politiques par le Conseil consiste à recueillir des informations supplémentaires auprès d’individus et d’organisations ayant démontré une certaine expertise. Ces contributions permettront aux membres du Conseil de mieux comprendre la façon dont les politiques de Meta affectent les personnes du monde entier.
Si vous ou votre organisation pensez que vous pouvez apporter un point de vue intéressant dans le cadre de cette demande d’avis consultatif en matière de politiques, vous pouvez envoyer vos contributions ici.
Les commentaires publics pour la demande d’avis consultatif en matière de politiques annoncée aujourd’hui seront ouverts jusqu’au jeudi 25 août à 15 h UTC.
Le processus d’avis consultatif en matière de politiques n’étant pas soumis aux mêmes contraintes de temps que les décisions sur les cas, ce délai est plus long que celui réservé aux commentaires publics sur les nouveaux cas. De plus, les commentaires publics peuvent occuper jusqu’à six pages et être présentés dans n’importe quelle langue disponible sur le site web du Conseil, afin d’encourager une plus large participation sur les questions soulevées. La liste complète des langues est disponible en cliquant sur le lien ci-dessus.
Et après ?
Le Conseil a accepté cette demande d’avis consultatif en matière de politiques et va désormais recueillir toutes les informations nécessaires, notamment via l’appel aux commentaires publics lancé aujourd’hui. À l’issue de ses délibérations, le Conseil au complet votera sur l’avis consultatif en matière de politiques. S’il est approuvé, il sera publié sur le site web du conseil.
Nouveaux cas
Puisque nous ne pouvons pas traiter tous les cas, le Conseil donne la priorité à ceux pouvant potentiellement toucher de nombreuses personnes à travers le monde, ayant une importance cruciale pour le débat public ou soulevant des questions majeures sur les politiques de Meta.
Les cas que nous annonçons aujourd’hui sont les suivants :
Identité de genre et nudité (2022-009-IG-UA 2022-010-IG-UA)
Appels pour restaurer un contenu sur Instagram
Pour envoyer des commentaires publics, cliquez ici.
Ces cas concernent deux décisions sur le contenu de Meta que le Conseil de surveillance prévoit de traiter ensemble. Deux images avec des légendes ont été publiées sur Instagram par un compte géré par un couple aux États-Unis. Les deux images montrent le couple, qui s’est identifié comme transgenre et non-binaire dans ses publications et ses soumissions au Conseil. Dans la première image, publiée en 2021, les deux personnes sont torse nu et ont du ruban adhésif couleur chair sur leurs tétons, qui ne sont pas visibles. Dans la deuxième image, publiée en 2022, l’une de ces deux personnes est habillée, et l’autre est torse nu et couvre ses tétons avec ses mains. Les légendes accompagnant ces images expliquent que la personne qui est torse nu sur les deux images effectuera bientôt une mastectomie. Elles énoncent les projets du couple, à savoir documenter l’intervention chirurgicale et discuter de problématiques liées aux soins de santé pour les personnes transgenres. Elles comprennent également des annonces de collecte de dons pour payer l’opération.
Meta a supprimé les deux publications en vertu de son Standard de la communauté en matière de sollicitation sexuelle. Dans les deux cas, les systèmes automatisés de Meta ont identifié le contenu comme potentiellement en infraction.
- Dans le premier cas, le signalement a été automatiquement clôturé sans être examiné. Trois personnes ont ensuite signalé le contenu pour pornographie et automutilation. Ces signalements ont été examinés par des équipes de modération humaines, qui ont considéré que la publication était conforme. Lorsque le contenu a été signalé pour la quatrième fois, un autre examen manuel a été effectué, et la publication a alors été supprimée pour infraction.
- Dans le deuxième cas, la publication a été identifiée deux fois comme potentiellement en infraction par les systèmes automatisés de Meta, puis jugée conforme après avoir été soumise à un examen manuel. Deux personnes ont ensuite signalé le contenu, mais ces signalements ont été clôturés automatiquement sans être examinés. Finalement, les systèmes automatisés de Meta ont identifié le contenu comme potentiellement en infraction une troisième fois et l’ont soumis à un examen manuel. La publication a alors été considérée en infraction et a été supprimée.
Les propriétaires du compte ont fait appel de la suppression de ces deux publications auprès de Meta, mais l’entreprise a maintenu ses décisions.
Les propriétaires du compte ont fait appel de ces deux décisions auprès du Conseil. Le Conseil les examinera de façon conjointe. Dans ses déclarations au Conseil, le couple a déclaré ne pas comprendre pourquoi son contenu enfreignait les politiques de Meta. Il a expliqué que les poitrines sur les photos n’étaient pas celles de femmes et qu’il était important que les corps transgenres ne soient pas censurés sur la plateforme, en particulier à une époque où les droits des personnes transgenres et leur accès aux soins de santé sont menacés aux États-Unis.
À la suite de la sélection de ces publications par le Conseil, Meta a reconnu que leur suppression constituait une « erreur de mise en application » et les a restaurées.
Le Conseil aimerait recevoir des commentaires publics sur les points suivants :
- Si les politiques de Meta en matière de nudité et d’exploitation sexuelle respectent suffisamment les droits des personnes transgenres et non-binaires.
- Si l’exception de la chirurgie de réattribution sexuelle à l’interdiction de montrer des tétons de femmes de la politique de Meta en matière de nudité est respectée.
- Si Meta a mis en place des procédures suffisantes pour traiter le contenu conforme signalé et réduire le risque de suppression erronée.
- Comment l’utilisation de l’automatisation par Meta pour détecter les cas de sollicitation sexuelle et de nudité pourrait être améliorée.
- Des informations sur le contexte sociopolitique aux États-Unis (et dans le reste du monde), en particulier les obstacles à la liberté d’expression ou les défis qui y sont liés, notamment pour ce qui est de l’expression de genre, des droits des personnes transgenres et non-binaires et des problèmes d’accès aux soins de santé pour ces personnes.
- Des informations sur le rôle des médias sociaux en tant que ressource et lieu d’expression pour les personnes transgenres et non-binaires du monde entier.
Dans ses décisions, le Conseil peut fournir des recommandations en matière de politiques à Meta. Bien que ces recommandations ne soient pas contraignantes, Meta doit y répondre sous 60 jours. Le Conseil apprécie tout commentaire public proposant des recommandations pertinentes pour ces cas.
Poème russe (2022-008-FB-UA)
Appel pour restaurer un contenu sur Facebook
Pour envoyer des commentaires publics, cliquez ici.
En avril 2022, une personne utilisant Facebook en Lettonie a publié une photo et un texte en russe dans son fil d’actualité. La photo montre une personne allongée par terre, probablement décédée, dans la rue. Il n’y a pas de blessures visibles. Dans le texte, la personne à l’origine de la publication parle de crimes qui auraient été commis par des soldats soviétiques en Allemagne pendant la Seconde Guerre mondiale. Elle y indique que ces crimes ont été excusés au motif que les soldats se vengeaient des horreurs infligées à l’URSS par les nazis.
Elle compare la Seconde Guerre mondiale à l’invasion de l’Ukraine et affirme que l’armée russe « became fascist » (est devenue fasciste). Elle écrit qu’en Ukraine, l’armée russe « насиловать девочек, резать их отцов, пытать и убивать мирных людей мирных окраин Киева » (viole des filles, blesse leurs pères, torture et tue des personnes innocentes dans les environs de Kiev).
Pour conclure, elle écrit que « after Bucha, Ukrainians will also want to repeat... and will be able to repeat » (après Boutcha, les Ukrainiens voudront et pourront se venger). À la fin de sa publication, cette personne partage des extraits du poème « Kill him! » (Tuez-le !) du poète soviétique Constantin Simonov, notamment les vers « Kill the fascist so he will lie on the ground’s backbone » (Tuez le fasciste pour que ce soit lui qui soit au sol, pas vous), « Kill at least one of them as soon as you can » (Tuez-en au moins un dès que vous le pouvez) et « Kill him! Kill him! Kill! » (Tuez-le ! Tuez-le ! Tuez !).
La publication a été vue environ 20 000 fois. Le jour même où le contenu a été publié, une autre personne l’a signalé comme violent et explicite. Après examen manuel, Meta a supprimé le contenu pour infraction à son Standard de la communauté en matière de discours haineux. Quelques heures plus tard, la personne ayant publié le contenu a fait appel, et lors d’un deuxième examen manuel, il a été estimé que le contenu enfreignait la politique en matière de discours haineux.
Cette personne a alors fait appel auprès du Conseil de surveillance. À la suite de la sélection de cet appel pour examen par le Conseil le 31 mai 2022, Meta a déterminé que sa décision de supprimer le contenu était une erreur et l’a rétabli. Le 24 juin 2022, 24 jours après la restauration du contenu et conformément à son Standard de la communauté en matière de contenu violent et explicite, Meta a appliqué un écran d’avertissement à la photo de la publication, au motif qu’elle montrait la mort violente d’une personne.
Dans son appel au Conseil, la personne à l’origine de la publication déclare que la photo qu’elle a partagée est la « most innocuous » (plus anodine) de toutes les images montrant les « crimes of the Russian army in the city of Bucha » (crimes de l’armée russe dans la ville de Boutcha), « crimes de l’armée russe dans la ville de Boutcha » (où des dizaines de civils gisent dans les rues). Elle ajoute que sa publication n’incite pas à la violence et concerne à la fois « past history and the present » (le passé et le présent). Elle souligne également que le poème était à l’origine dédié à la « struggle of Soviet soldiers against the Nazis » (lutte des soldats soviétiques contre les nazis) et que sa publication visait à montrer comment « the Russian army became an analogue of the fascist army » (l’armée russe est devenue un équivalent de l’armée fasciste). Dans son appel, elle dit être journaliste et avance qu’il est important que le public sache ce qu’il se passe, en particulier en temps de guerre.
Le Conseil aimerait recevoir des commentaires publics sur les points suivants :
- Comment les politiques de Meta devraient traiter les discours haineux et l’incitation à la violence sur la base de la nationalité dans le contexte d’un conflit armé international, notamment lorsque c’est l’armée qui est ciblée.
- Comment Meta devrait tenir compte des lois sur les conflits armés lors de la modération de contenus sur des conflits armés.
- Si la politique de Meta devrait faire la distinction entre les attaques contre des institutions (comme l’armée) et les attaques contre des individus au sein de ces institutions (comme les soldats).
- Des informations sur la modération par Meta du contenu comprenant des analyses de journalistes et/ou des formes d’expression artistique, en particulier sur des sujets sensibles tels que la guerre.
- Le travail de Constantin Simonov, son contexte et comment il est dépeint aujourd’hui, notamment en lien avec le conflit actuel.
- Des informations sur le partage et la visibilité de photographies montrant des infractions potentielles aux droits de la personne ou des crimes de guerre lors de conflits armés sur les plateformes de Meta.
Dans ses décisions, le Conseil peut fournir des recommandations en matière de politiques à Meta. Bien que ces recommandations ne soient pas contraignantes, Meta doit y répondre sous 60 jours. Le Conseil apprécie tout commentaire public proposant des recommandations pertinentes pour ces cas.
Musique drill britannique (2022-007-IG-MR)
Cas soumis par Meta
Pour envoyer des commentaires publics, cliquez ici.
En janvier 2022, un compte Instagram public se décrivant comme faisant la promotion de la musique britannique a publié une vidéo comprenant une courte légende. La vidéo est un extrait de 21 secondes d’un morceau de musique drill britannique intitulé « Secrets Not Safe » (Des secrets mal gardés), du rappeur britannique Chinx (OS). La légende mentionne Chinx (OS) et un autre artiste et souligne que le morceau venait de sortir. L’extrait vidéo montre une partie du deuxième couplet de la chanson et se termine par un écran noir avec le texte « OUT NOW » (Maintenant disponible). Au Royaume-Uni, la musique drill est un sous-genre du rap populaire. Elle compte notamment un grand nombre d’artistes à Londres.
Peu de temps après la publication de cette vidéo, les autorités britanniques ont demandé à Meta de supprimer le contenu qui comprenait ce morceau. Meta a déclaré que les autorités lui avaient signalé que ce contenu pouvait entraîner des violences hors ligne. L’entreprise savait que le morceau faisait référence à une fusillade passée d’une façon qui risquait d’engendrer de nouvelles violences. La publication a été soumise à un examen manuel de la part de spécialistes de Meta.
Les spécialistes de Meta ont déterminé que le contenu allait à l’encontre de la politique en matière de violence et d’incitation, qui interdit notamment les « déclarations codées dans lesquelles la méthode de violence ou le préjudice n’est pas clairement défini, mais la menace est voilée ou implicite ». Les Standards de la communauté comprennent une liste de signes qui montrent que le contenu pourrait inclure des menaces voilées ou implicites. Par exemple, les « contenus partagés dans un contexte de représailles » et les « références à des incidents de violence historiques ou fictifs ». Des informations et/ou un contexte supplémentaires sont toujours nécessaires pour identifier et supprimer le contenu appartenant à différentes catégories citées à la fin de la politique sur la violence et l’incitation, telles que les menaces voilées. Meta a expliqué au Conseil que dans ces catégories, la mise en application de ses politiques n’est pas soumise à un examen à grande échelle (le processus d’examen standard mené par des équipes de modération externes) et ne peut être menée que par les équipes internes de Meta. Meta a également souligné que les Standards de la communauté Facebook s’appliquaient aussi à Instagram.
Lorsque Meta a supprimé le contenu deux jours après sa publication, les copies de la vidéo publiées par d’autres comptes ont également été supprimées. En s’appuyant sur les informations qui lui ont été fournies par les autorités britanniques, l’équipe Public Policy de Meta a déterminé que le morceau pouvait « augmenter le risque de représailles entre gangs » et agissait comme « un appel à l’action menaçant et susceptible de contribuer à un risque de violence ou blessures physiques imminentes, notamment des représailles entre gangs. »
Quelques heures après la suppression du contenu, le compte a fait appel. Lors d’un examen manuel, le contenu a été considéré comme conforme et restauré sur Instagram. Huit jours plus tard, à la suite d’une deuxième demande de la part des autorités britanniques, Meta a de nouveau supprimé le contenu original et les autres publications de la vidéo trouvées sur ses plateformes. Dans ce cas, le compte est suivi par moins de 1 000 personnes, la plupart vivant au Royaume-Uni. La personne a reçu des notifications de Meta les deux fois où son contenu a été supprimé, mais n’a pas été informée que ces suppressions avaient été effectuées sur demande des autorités britanniques.
Dans sa demande au Conseil, Meta déclare que ce cas est particulièrement difficile à traiter, car il implique de trouver un équilibre entre l’expression artistique et la sécurité publique. Meta explique que, bien que l’entreprise accorde une grande importance à l’expression artistique, il est difficile de déterminer à quel moment cette expression devient une menace crédible. Meta demande au Conseil d’évaluer si, dans ce cas et de manière générale, les risques pour la sécurité associés à l’incitation potentielle à la violence des gangs pèsent plus lourd dans la balance que la valeur de l’expression artistique dans la musique drill.
Le Conseil aimerait recevoir des commentaires publics sur les points suivants :
- L’importance artistique et culturelle de la musique drill britannique et tout rapport entre le partage de cette musique en ligne et des actes de violence dans le monde réel.
- La responsabilité de Meta de respecter l’expression artistique en vertu des droits de la personne, ainsi que de s’assurer que ses plateformes ne sont pas utilisées pour inciter à la violence, et comment cela devrait influencer son approche de la modération du contenu musical.
- Si les politiques de Meta en matière de violence et d’incitation doivent comprendre des exceptions pour l’humour, la satire et l’expression artistique, et si oui, comment elles doivent être formulées et mises en application avec précision à grande échelle.
- Comment les plateformes sociales devraient gérer les demandes des autorités pour ce qui est de l’examen ou de la suppression de contenus qui n’enfreignent pas les lois nationales, mais qui pourraient enfreindre les règles sur le contenu d’une plateforme.
- Comment les plateformes sociales devraient intégrer les demandes de suppression de contenu formulées par les autorités à leurs rapports de transparence, en particulier les demandes non fondées sur l’illégalité.
Dans ses décisions, le Conseil peut fournir des recommandations en matière de politiques à Meta. Bien que ces recommandations ne soient pas contraignantes, Meta doit y répondre sous 60 jours. Le Conseil apprécie tout commentaire public proposant des recommandations pertinentes pour ces cas.
Commentaires publics
Si vous ou votre organisation pensez que vous pouvez apporter un regard différent sur les cas mentionnés aujourd’hui et aider le Conseil à prendre une décision, envoyez vos contributions en utilisant les liens ci-dessus. Les commentaires publics pour ces cas seront ouverts jusqu’au mardi 9 août 2022 à 15 h UTC, soit pendant une période de 14 jours.
Et après ?
Dans les semaines à venir, les membres du Conseil délibéreront sur ces cas. Lorsqu’ils auront rendu leurs décisions finales, nous les publierons sur le site web du Conseil de surveillance. Pour recevoir des mises à jour lorsque le Conseil annonce de nouveaux cas ou publie des décisions, inscrivez-vous ici.