Rapport annuel 2022 : le Conseil de surveillance passe en revue les modifications effectuées par Meta pour apporter plus d’impartialité et de transparence à ses plateformes
6 juin 2023
Aujourd’hui, nous publions notre Rapport annuel 2022. Il dresse un tableau complet du travail du Conseil en 2022 et comprend notamment la publication de nos premiers avis consultatifs en matière de politique et l’impact croissant de nos recommandations sur l’expérience Facebook et Instagram pour le public.
Consultez notre rapport annuel en anglais ici.
Consultez notre rapport annuel en espagnol ici.
Remarque : nous publierons également ce rapport en arabe, chinois, français, hindou et russe dans les semaines à venir.
Transformer les engagements en résultats
Depuis que nous avons publié notre première décision en janvier 2021, Meta a appliqué nombre de nos recommandations. Ces changements ont rendu l’entreprise plus transparente et plus juste dans sa façon de traiter ses utilisateurs et utilisatrices.
De janvier 2021 à début avril 2023, lorsque ce Rapport annuel a été finalisé, le Conseil a émis un total de 191 recommandations à Meta. Près d’un tiers de ces recommandations ont été totalement ou partiellement appliquées par Meta, ou sont en cours de mise en œuvre.
En 2022, pour la première fois, Meta a apporté des modifications systémiques à ses règles et à la manière dont elles sont appliquées, notamment concernant les informations fournies aux utilisateurs et utilisatrices et ses règles en matière d’organisations dangereuses. Même si nous savons qu’il reste encore beaucoup à faire, le Rapport annuel d’aujourd’hui met en lumière plusieurs exemples de l’impact du Conseil jusqu’à ce jour.
Expliquer pourquoi un contenu a été supprimé
En tant que Conseil, la recommandation que nous avons le plus souvent faite à Meta est d’expliquer aux personnes pourquoi leur contenu a été supprimé.
Par le passé, nous avons constaté que, souvent, les utilisateurs et utilisatrices ne savaient pas pourquoi Meta avait supprimé leur contenu. En réponse à nos recommandations, Meta a mis en place un nouveau système de messages mondial indiquant les règles spécifiques qui ont été enfreintes pour ses politiques en matière de discours haineux, de personnes et d’organisations dangereuses et de harcèlement. D’autre part, à la suite d’une autre recommandation, Meta a également effectué un déploiement mondial de messages indiquant si l’examen du contenu ayant amené à sa suppression a été manuel ou automatique. Nous pensons que donner davantage d’informations aux personnes sur comment et pourquoi leur contenu a été supprimé permet de renforcer la confiance et d’améliorer l’impartialité avec laquelle Meta applique ses règles.
Rendre les règles plus cohérentes et transparentes
Le Rapport annuel de ce jour montre aussi comment nos recommandations contribuent à rendre les règles de Meta plus claires et plus cohérentes.
En réponse à nos propositions, Meta a mis en place un protocole de politique de crise pour que ses réponses aux situations de crises soient plus cohérentes. Récemment, l’entreprise a également fait part de son intention de créer une nouvelle équipe de coordination des crises afin d’assurer une surveillance des opérations 24 h/24 et 7 j/7 pour les crises imminentes et émergentes.
Meta a aussi entrepris un examen de ses règles en matière de personnes et organisations dangereuses et créé un nouveau Standard de la communauté en matière de fausses informations, regroupant et explicitant ainsi ses règles en la matière. Enfin, suite à nos préoccupations concernant l’opacité du système de sanctions de Meta et à l’inquiétude des utilisateurs et utilisatrices d’être placés dans la « prison Facebook », l’entreprise a modifié son système de « pénalités » pour le rendre plus juste et plus transparent.
Protéger la parole des journalistes, des contestataires et des personnes qui cherchent à sensibiliser sur le cancer du sein
Notre Rapport annuel montre également comment nos recommandations contribuent à protéger la parole des journalistes, des contestataires et des personnes qui cherchent à sensibiliser sur le cancer du sein sur Facebook et Instagram.
Pour donner suite à notre avis consultatif en matière de politique sur le programme de vérification croisée de Meta, par exemple, l’entreprise s’est engagé à renforcer la protection des personnes particulièrement susceptibles de voir leur contenu supprimé à tort, telles que les journalistes et les défenseurs et défenseuses des droits humains.
Nous avons également protégé la voix des utilisateurs et des utilisatrices lors des transformations sociales et politiques. Dans le cadre de notre décision sur le cas « Slogan de protestation en Iran », nous avons exhorté Meta de mieux protéger les discours politiques en Iran, où des manifestations historiques ont été violemment réprimées. Ainsi, Meta a autorisé le terme « Marg bar Khamenei » (qui signifie littéralement « Mort au Khamenei [guide suprême iranien] ») lorsqu’il est partagé dans le cadre des manifestations en cours en Iran, et l’entreprise a annulé les mesures qu’elle avait prises précédemment contre ce type de contenu.
Enfin, dans notre décision sur le cas « Symptômes du cancer du sein et nudité », nous avons vivement conseillé à Meta d’améliorer la détection des images avec un texte superposé afin que les publications visant à sensibiliser sur les symptômes du cancer du sein ne fassent plus l’objet d’un examen. En réponse, Meta a amélioré ses techniques permettant d’identifier les contenus ayant trait au cancer du sein sur Instagram.
Ces améliorations ont été mises en place en juillet 2021 et, entre le 26 février et le 27 mars 2023, elles ont permis l’examen manuel de 2 500 contenus supplémentaires, qui auparavant auraient été supprimés. Même s’il est difficile de contextualiser cela sans dénominateur, ce chiffre montre comment notre recommandation a aidé Meta à limiter un risque systémique lié à la manière dont l’entreprise gérait ce type de contenu.
Un nouveau dialogue transparent
En rendant ces recommandations publiques et en suivant publiquement les réponses et les mises en œuvre de Meta, nous avons ouvert la voie à un dialogue transparent et sans précédent avec l’entreprise. Nous espérons que nos recommandations donneront lieu à des débats publics sur la manière dont les plateformes peuvent aborder certains des défis les plus complexes en matière de modération de contenu.
Dans de nombreux cas, nos propositions s’appuient sur des demandes de longue date provenant de groupes de la société civile ou d’autres acteurs, obligeant ainsi Meta à prendre en considération et à répondre publiquement à ces appels à l’action. En tant que Conseil, nous aimerions remercier à nouveau ces organisations qui partagent leurs idées et leur expertise.
Le travail du Conseil en 2022
En plus de mettre en lumière l’impact croissant du Conseil sur Meta, notre Rapport annuel propose également une vue d’ensemble des cas soumis au Conseil.
En 2022, nous avons reçu près de 1,3 million de demandes d’appels d’utilisateurs et utilisatrices pour restaurer ou supprimer du contenu sur Facebook et Instagram, soit une augmentation de près d’un quart par rapport à 2021. Plus des deux tiers des demandes d’appels pour restaurer du contenu en 2022 concernaient des publications supprimées en vertu des règles de Meta sur la violence et l’incitation ou sur les discours haineux.
Lorsque le comité de sélection des cas du Conseil choisit des cas pour qu’ils soient examinés par le Conseil, il arrive que Meta constate que sa décision initiale sur un élément de contenu n’était pas la bonne et qu’il l’annule. En 2022, Meta a identifié que ses décisions initiales étaient incorrectes dans 32 cas sur les 50 sélectionnés par le Conseil. Bien qu’il ne s’agisse que d’un petit échantillon, et que le Conseil recherche intentionnellement les cas les plus complexes, il est préoccupant que pour près des deux tiers des cas sélectionnés Meta ait constaté que sa décision initiale n’était pas la bonne.
Nous Rapport annuel met aussi en avant comment, en 2022, nous avons :
- publié notre premier avis consultatif en matière de politique sur le partage d’informations privées concernant le lieu de résidence et sur le programme de vérification croisée de Meta ;
- rejeté la décision initiale de Meta sur un élément de contenu dans les trois quarts de nos décisions sur des cas ;
- reçu plus de 600 commentaires publics provenant d’individus et d’organisations du monde entier ;
- étendu notre champ d’action pour inclure la capacité à ajouter des écrans d’avertissement sur certains contenus ;
- annoncé sept priorités stratégiques : élections et espace civique, crises et situations de conflits, genre, discours haineux contre les groupes marginalisés, utilisation gouvernementale des plateformes Meta, traitement impartial des utilisateurs et utilisatrices, et application automatique des règles et du traitement du contenu.
Faire évoluer notre travail avec Meta
En février 2023, nous avons fait part de notre intention d’examiner plus de cas, plus rapidement. En multipliant et en accélérant nos décisions, nous pourrons relever davantage de défis liés à la modération de contenu. Depuis février, nous avons dévoilé 10 nouveaux cas qui seront examinés et nous avons lancé un avis consultatif en matière de politique sur le terme arabe « Shaheed » (qui se traduit souvent comme « martyr »). Nous les publierons au cours de semaines et mois à venir.
Notre rapport annuel fixe six objectifs pour nous aider à augmenter notre impact en 2023. Ces objectifs comprennent le fait de publier le premier récapitulatif de nos décisions, qui s’intéresse aux cas pour lesquels Meta est revenu sur sa décision initiale concernant un élément de contenu sur lequel nous avons attiré son attention. Nous prévoyons également de rendre nos premières décisions accélérées en 2023. Ces dernières nous permettent d’examiner, en quelques jours seulement, une décision prise par Meta concernant une publication, et nous avons hâte que l’entreprise nous transmette notre premier cas accéléré. Nous avons également pour objectif de terminer la composition initiale du Conseil, de renforcer notre engagement concernant nos sept priorités stratégiques, de poursuivre des projets à long terme pour étendre notre portée, et de pousser Meta à fournir des preuves de ce que l’entreprise met en place et des résultats qui s’ensuivent.
Partager les avantages d’une surveillance indépendante
Dès le départ, le Conseil avait pour but de tester une approche indépendante de la modération de contenu qui, si elle s’avérait fructueuse, pourrait ensuite être appliquée à d’autres entreprises. Au cours de ces trois dernières années, nous avons acquis une vaste expérience en matière de surveillance indépendante et cette expérience peut aider les entreprises à prendre des décisions plus solides en se basant sur la liberté d’expression et d’autres droits humains.
Notre Rapport annuel partage nos réflexions sur la manière dont un conseil de surveillance axé sur la gestion du contenu devrait fonctionner. Ces réflexions traitent aussi bien de l’intérêt de la diversité que de l’importance des normes internationales relatives aux droits humains dans la prise de décision. Étant donné que de nouvelles réglementations impliquent de nouvelles exigences, il y a également des domaines spécifiques, tels que la transparence et les informations fournies aux utilisateurs et utilisatrices, dans lesquels nous pensons que nous pouvons apporter des éléments de solution.
Et après ?
Dans le cadre de notre engagement en faveur de la transparence, nous publions également des rapports de transparence trimestriels. Dans les prochains jours, nous publierons notre rapport de transparence pour le premier trimestre 2023. Il mettra en avant d’autres exemples de l’impact du Conseil sur Meta et comprendra une analyse de l’annonce de Meta de janvier 2023 sur l’ancien président Trump.