Rapport de transparence du T1 2023 : le Conseil publie de nouvelles informations sur l’impact de ses recommandations
27 juin 2023
Le Conseil de surveillance a publié aujourd’hui son Rapport de transparence pour le premier trimestre 2023. Outre une présentation des activités du Conseil au cours de ce trimestre, le rapport contient également de nouvelles informations sur l’impact des recommandations issues de nos cas « Slogan de protestation en Iran » et « Symptômes du cancer du sein et nudité ».
Documenter notre impact sur les utilisateurs
Adapter l’approche de Meta en matière de modération du contenu prend du temps. Depuis nos premières recommandations il y a deux ans et demi, Meta a pris de nouveaux engagements qui ont conduit à des modifications de ses règles et de leur application. Nombre d’entre elles sont documentées dans notre Rapport annuel 2022.
La prochaine étape consiste à documenter la manière dont ces changements améliorent l’expérience des personnes qui utilisent Facebook et Instagram dans le monde entier. Pour ce faire, Meta nous fournit des informations sur l’impact de recommandations spécifiques. Notre équipe de mise en œuvre utilise également des outils tels que CrowdTangle pour documenter les effets des changements apportés par Meta à la suite de nos décisions et recommandations. Aujourd’hui, nous publions deux autres points de données qui illustrent notre impact.
Donner des moyens d’agir aux manifestants iraniens sur Instagram
Dans notre décision sur le cas « Slogan de protestation en Iran », nous avons exhorté Meta de mieux protéger les discours politiques en Iran, où des manifestations historiques ont été violemment réprimées. Ainsi, Meta a prévu d’autoriser le terme « Marg bar Khamenei » (littéralement « Mort au Khamenei [guide suprême iranien] ») lorsqu’il est partagé dans le cadre des manifestations en cours en Iran, et l’entreprise a annulé les mesures qu’elle avait prises précédemment contre ce type de contenu.
Nous avons comparé les publications utilisant l’expression « Marg bar Khamenei » provenant du même ensemble de pages publiques, de groupes et de comptes Instagram au cours de la même période avant et après la mise en œuvre de notre recommandation par Meta. Nous avons alors constaté, en janvier 2023, que le nombre de publications utilisant l’expression « Marg bar Khamenei » provenant de ces pages, groupes et comptes Instagram avait augmenté de près de 30 %. Notre analyse statistique a montré qu’il était peu probable que cette augmentation soit uniquement attribuée à une variation aléatoire et qu’elle était très probablement due à la mise en œuvre de notre recommandation par Meta.
Améliorer de la manière dont Meta identifie les publications de sensibilisation au cancer du sein
Nous avons également reçu d’autres informations sur la mise en œuvre de la recommandation concernant notre décision sur le cas « Symptômes du cancer du sein et nudité » invitant Meta à « améliorer la détection automatique des images avec superposition de texte pour s’assurer que les publications de sensibilisation au cancer du sein ne sont pas signalées à tort ».
Meta a précédemment indiqué que les améliorations apportées à sa détection des superpositions de texte, à la suite de notre recommandation, ont permis de soumettre 2 500 contenus à un examen manuel en 30 jours seulement en février et mars 2023, alors qu’ils auraient été automatiquement supprimés auparavant.
En plus de ces changements, Meta nous a dit avoir testé et déployé un nouveau classificateur de contenu sur la santé afin d’améliorer les techniques d’Instagram pour identifier le contenu basé sur des images concernant le cancer du sein. Ces améliorations ont été réalisées depuis juillet 2021 et, pendant 28 jours entre le 21 mars et le 18 avril 2023, elles ont permis l’examen manuel de 1 000 contenus supplémentaires, qui auraient auparavant été supprimés sans examen.
Ces nouvelles données démontrent notre impact sur la façon dont Meta modère le contenu sensibilisant au cancer du sein, notamment les changements systémiques et les nouveaux outils, et montrent les différentes façons dont Meta répond à cette recommandation importante.
Le Conseil de surveillance au T1 2023
Notre rapport de transparence pour le T1 2023 présente également les activités et les interactions du Conseil avec Meta au cours de cette période.
Voici quelques points importants :
- Nous avons publié des décisions sur quatre cas au T1 2023 : « Slogan de protestation en Iran », « Identité de genre et nudité » (qui couvrait deux cas) et « Produits pharmaceutiques au Sri Lanka ».
- Les parties prenantes ont envoyé près de 300 commentaires publics au Conseil avant les délibérations sur ces cas.
- Meta a répondu à 53 des 56 questions que nous avons posées lors de l’examen de ces cas, et à trois d’entre elles de manière partielle. Avec un taux de réponse de 95 %, il s’agit de la proportion la plus élevée de questions auxquelles Meta a répondu depuis que nous avons commencé à prendre en compte ce point de données au T1 2021.
- Nous avons également dévoilé quatre nouveaux cas qui seront examinés et lancé un avis consultatif en matière de politique sur le terme arabe « Shaheed ». Ce terme comptabilise plus de suppressions de contenus telles que définies par les Standards de la communauté que n’importe quel autre mot ou expression sur les plateformes de Meta.
- Les utilisateurs de Facebook et Instagram ont envoyé plus de 140 000 cas au Conseil au T1 2023.
- Au T1 2023, la grande majorité (81 %) de ces recours au Conseil concernait des contenus partagés sur Facebook, et 19 % des cas des contenus partagés sur Instagram, ce qui représente la part la plus élevée jamais atteinte de recours auprès du Conseil concernant des contenus partagés sur cette plateforme. Ce chiffre s’élevait à 1 % des recours au T1 2022.
- À la suite de nos préoccupations concernant l’opacité du système de sanctions de Meta et de l’inquiétude des utilisateurs d’être placés dans la « prison de Facebook », l’entreprise a modifié son système de « pénalités » pour le rendre plus juste et plus transparent.
Meta répond à nos recommandations sur la suppression de fausses informations sur le COVID-19
Nous avons examiné les politiques de Meta en matière de fausses informations sur le COVID-19 en début d’année et, récemment, Meta a répondu à nos recommandations. Sur les 17 recommandations que nous avions formulées dans notre rapport et qui sont toujours d’actualité, Meta s’est engagé à en mettre en œuvre plus des trois quarts, totalement ou partiellement.
Notre examen des politiques de Meta concernant le COVID-19 nous a permis d’étudier en profondeur ses systèmes, ses politiques et son expérience en matière de traitement des fausses informations sur ses plateformes. Comme nous l’avons vu dans la récente réponse de Meta à nos recommandations, notre examen affectera de manière significative la manière dont l’entreprise traitera ce type de contenu à l’avenir.
Soulignons quelques changements notables que Meta a apportés ou s’est engagé à apporter à la suite de notre examen :
- Meta s’est engagé à évaluer la faisabilité d’une approche localisée des fausses informations sur le COVID-19, notamment en continuant à supprimer de tels contenus dans les pays qui considèrent toujours la pandémie comme une urgence de santé publique, maintenant que l’Organisation mondiale de la Santé (OMS) a levé l’état d’urgence au niveau mondial. C’est intéressant, car Meta s’est fortement engagé jusqu’à présent en faveur d’une politique mondiale unique pour cette question et d’autres.
- Selon les dires de l’entreprise, Meta devrait clarifier sa politique relative aux fausses informations sur la santé pendant les urgences de santé publique en expliquant que l’exigence selon laquelle les informations doivent être « fausses » se réfère à des informations fausses selon les meilleures preuves disponibles au moment de la dernière réévaluation de la politique. Les chercheurs en fausses informations préconisent depuis longtemps ce type de politique afin de permettre une application de bonne foi, même si les faits évoluent.
- Les outils d’accès tels que CrowdTangle et l’API Researcher, anciennement connue sous le nom de FORT, ont été un point de friction majeur avec Meta au cours des derniers mois. L’entreprise s’est engagée à maintenir le niveau d’accès aux données fourni aux chercheurs et aux universitaires, et à fournir à l’avenir un accès élargi non seulement aux chercheurs couverts par la loi sur les services digitaux, mais aussi aux chercheurs des pays de la « global majority ».
Meta a reconnu que des outils tels que CrowdTangle et l’API Researcher apportent « un soutien important à la communauté des chercheurs, et qu’ils contribuent à la transparence des décisions politiques de Meta tout en améliorant la compréhension des questions complexes par la société ». Le Conseil se félicite de l’engagement de Meta en faveur de la transparence et attend avec impatience de voir cet engagement se concrétiser.
Informations sur la décision du Meta de restaurer le compte de l’ancien président Donald Trump
Après la décision de Meta en janvier 2023 de restaurer le compte de l’ancien président Donald Trump sur Facebook et Instagram, le Conseil de surveillance a demandé des informations sur le raisonnement de Meta à l’origine de cette décision. En réponse, Meta a informé le Conseil de son processus de prise de décision. Le Conseil estime que les informations confidentielles fournies par Meta témoignent d’une approche fondée sur des principes de prise de décision et montrent que l’entreprise a en fait largement suivi nos recommandations dans concernant ce cas. Nous saluons le processus et la transparence dont Meta a fait preuve à l’égard du Conseil. Cependant, étant donné qu’il s’agit d’un de nos principes fondamentaux, nous demandons à Meta de faire preuve de davantage de transparence publiquement sur sa prise de décision dans des cas similaires à l’avenir.
Et après ?
Dans le cadre de notre engagement en faveur de la transparence, nous continuerons à publier des rapports de transparence chaque trimestre. Ceux-ci comprendront de nouvelles informations sur l’impact de nos recommandations sur les utilisateurs.