Le Conseil de surveillance publie son rapport de transparence pour le troisième trimestre 2021
9 décembre 2021
Le 28 octobre 2021, il a été annoncé que le groupe Facebook s’appellerait désormais Meta. Dans ce texte, Meta fait référence au groupe, et Facebook continue de faire référence au produit et aux politiques liées à l’application spécifique.
Nous publions aujourd’hui un rapport de transparence concernant le troisième trimestre 2021.
Dans le cadre de notre engagement pour la transparence, nous partageons chaque trimestre des détails sur les cas que le Conseil de surveillance reçoit de la part des utilisateurs et utilisatrices, les décisions que nous avons prises et nos recommandations à Meta. Nos premiers rapports de transparence, qui concernent le quatrième trimestre 2020 et les premier et deuxième trimestres 2021, ont été publiés en octobre 2021.
Selon le rapport publié aujourd’hui, le Conseil a continué de recevoir un volume croissant d’appels — environ 339 000 cas — de la part d’utilisateurs et utilisatrices Facebook et Instagram du monde entier au troisième trimestre 2021 (du 1er juillet au 30 septembre 2021).
Sur la même période, le Conseil a publié six décisions concernant des questions diverses allant des manifestations politiques aux confinements dus au COVID-19. Dans quatre cas, le Conseil a annulé la décision prise par Meta sur le contenu, mais il a tout de même confirmé la décision de Meta à deux reprises.
Dans le cadre de notre processus d’élaboration de ces décisions, nous avons reçu plus de 100 commentaires publics. Pour ces six décisions, nous avons émis 25 recommandations de politiques, la majorité ayant été mise en œuvre par Meta.
Faits marquants du rapport du Conseil pour le troisième trimestre
1. Le nombre de cas transmis au Conseil augmente considérablement
Nous estimons que, de juillet à septembre, les utilisateurs et utilisatrices ont soumis environ 339 000 cas au Conseil. Cela représente une augmentation de 64 % par rapport aux 207 000 cas du deuxième trimestre.
Les améliorations apportées aux modalités d’appel par le biais de l’application mobile de Facebook, ainsi que la notoriété croissante du Conseil, peuvent avoir contribué à cette augmentation. Depuis le début des travaux du Conseil en octobre dernier, plus de 860 000 demandes d’examen des décisions de modération du contenu de Meta lui sont parvenues.
2. Augmentation des cas liés à la violence et à l’incitation
De juillet à septembre, les utilisateurs et utilisatrices qui souhaitaient voir leur contenu restauré ont principalement soumis des cas concernant les règles de Facebook en matière de harcèlement (34 %), de violence et d’incitation (30 %), et de discours haineux (23 %). La part des cas liés aux règles sur la violence et l’incitation a augmenté de deux tiers entre le deuxième et le troisième trimestre de cette année, passant d’environ 18 % à environ 30 %.
3. Pour environ la moitié des cas présélectionnés par le Conseil au troisième trimestre 2021, Meta a décidé que sa décision initiale de retirer le contenu n’était pas la bonne
Après identification par le comité de sélection du Conseil des cas à examiner, nous demandons à Meta de confirmer qu’ils sont éligibles à examen en vertu des Statuts. À ce stade, Meta se rend parfois compte que sa décision initiale de retirer le contenu n’était pas la bonne. C’est ce qui s’est produit pour près de la moitié des cas présélectionnés par le comité de sélection des cas au troisième trimestre 2021 (13 cas sur 28). Meta a restauré ces contenus sur Facebook ou Instagram.
Parfois, malgré le changement de position de Meta, le Conseil rend une décision complète lorsque le cas a une valeur de précédent importante. C’est ce qui s’est produit pour deux cas publiés au troisième trimestre 2021 (sur l’isolement cellulaire d’Abdullah Öcalan et sur une publication partagée par Al Jazeera). Sans l’intervention du Conseil, les décisions non pertinentes prises par Meta resteraient probablement en vigueur.
4. Meta s’est engagé à mettre en œuvre soit « pleinement » soit « partiellement » plus de la moitié des recommandations du Conseil au troisième trimestre 2021.
Sur les 25 recommandations formulées par le Conseil pour ses six décisions publiées entre juillet et septembre, Meta a indiqué mettre en œuvre neuf recommandations « pleinement » et quatre recommandations « partiellement ». L’entreprise a déclaré qu’elle « évaluait la faisabilité » de cinq recommandations et a affirmé que cinq autres représentaient « le travail que Meta effectue déjà ». Meta a indiqué qu’« aucune mesure supplémentaire ne serait prise » pour deux recommandations.
En réponse aux recommandations formulées par le Conseil au troisième trimestre, Meta a pris plusieurs engagements qui pourraient accroître la transparence à l’égard des utilisateurs et des utilisatrices.
Par exemple, à la suite d’un rapport gouvernemental officiel, Meta a accepté de fournir des informations sur le contenu supprimé pour infraction aux Standards de la communauté Facebook dans son Espace modération, notamment le nombre de demandes reçues.
Meta s’est également engagé à « mettre pleinement en œuvre » notre recommandation de demander à un organisme indépendant n’étant associé à aucune des parties du conflit israélo-palestinien d’effectuer un examen minutieux afin de déterminer si ses pratiques en matière de modération du contenu publié en arabe et en hébreu (notamment son utilisation de l’automatisation) étaient appliquées en toute impartialité.
Inciter Meta à faire preuve de plus de transparence
Outre la publication de notre rapport de transparence pour le troisième trimestre, nous avons également publié aujourd’hui deux nouvelles décisions de cas qui appellent à davantage de transparence concernant les règles de Meta et la manière dont elles sont appliquées.
Concernant la décision sur l’ayahuasca, une infusion psychoactive à usage spirituel, nous avons réitéré notre appel pour que Meta explique aux utilisateurs et aux utilisatrices que celle-ci applique les Standards de la communauté Facebook sur Instagram, avec plusieurs exceptions spécifiques.
Dans notre décision concernant un collier de wampum, une forme d’art indigène d’Amérique du Nord, nous avons demandé à Meta d’évaluer avec quelle précision ses examinateurs et examinatrices appliquent les exceptions relatives à l’expression artistique et à l’expression en lien avec les violations des droits de l’homme. La société devrait également réfléchir à la façon dont le lieu où se trouve l’examinateur ou l’examinatrice affecte sa capacité à évaluer avec précision le « contre-discours », au sein duquel le discours haineux est employé pour résister à l’oppression et à la discrimination.
Pendant que Meta agit en réponse à ces recommandations et à d’autres conseils, nous surveillerons si l’entreprise tient ses promesses, et de quelle manière.
À long terme, nous pensons que nos recommandations pousseront Meta à faire preuve de plus de transparence et que cela profitera aux utilisateurs et utilisatrices.
Pour mettre Meta face à ses responsabilités, notre indépendance est cruciale. Nos membres jouent un rôle clé dans la protection de l’indépendance du Conseil, et nous avons le plaisir d’annoncer aujourd’hui l’arrivée parmi nous de Stephen Neal, président émérite et directeur juridique principal de la société Cooley, et président de la Fondation Hewlett.
Mise à jour sur le cas 2021-017-FB-UA
Le mois dernier, nous avons annoncé trois nouveaux cas, dont un qui traitait de la prise de pouvoir par les talibans en Afghanistan. Ce cas ne peut plus être examiné par le Conseil en raison de l’intervention de la personne qui en est à l’origine. La personne qui a fait appel du cas auprès du Conseil a supprimé sa publication, laquelle n’est désormais plus disponible sur la plate-forme.
Les utilisateurs et utilisatrices Facebook ayant le droit de supprimer leur contenu, des évènements de ce type devraient se produire occasionnellement. Nous annoncerons tous les cas qui ne seront finalement pas examinés en raison de l’intervention de la personne concernée dans les meilleurs délais.
Et ensuite ?
Dans le cadre de notre engagement en faveur de la transparence, nous continuerons à publier des rapports de transparence chaque trimestre. L’année prochaine, nous publierons également un rapport annuel qui évaluera les performances de Meta dans la mise en œuvre de nos décisions et recommandations.