Renversé
Inondations en Libye
Un utilisateur a fait appel de la décision de Meta de supprimer une publication Facebook sur les inondations qui ont eu lieu récemment en Libye. Ce cas est en exemple d’application à outrance de la politique de l’entreprise sur les organismes et individus dangereux.
Il s’agit d’un résumé de la décision. Les résumés des décisions examinent les cas où Meta est revenue sur sa décision initiale concernant un élément de contenu après que le Conseil a porté l’affaire à l’attention de l’entreprise. Ces décisions incluent des informations sur les erreurs reconnues de Meta et informent le public de l’impact du travail du Conseil. Elles sont approuvées par un groupe de membres du Conseil, et non par le Conseil tout entier. Elles n’impliquent pas de processus de commentaires publics et n’ont pas valeur de précédent pour le Conseil. Les résumés des décisions assurent la transparence des corrections apportées par Meta et mettent en évidence les domaines dans lesquels l’entreprise pourrait améliorer l’application de sa politique.
Résumé du cas
Un utilisateur a fait appel de la décision de Meta de supprimer une publication Facebook sur les inondations qui ont eu lieu récemment en Libye. En septembre 2023, des inondations provoquées par la tempête Daniel et l’effondrement de deux barrages ont dévasté le Nord-Est de la Libye. Une vidéo de soutien aux victimes des inondations, en particulier dans la ville de Derna, a été supprimée parce qu’elle enfreignait la politique de Meta sur les organismes et individus dangereux. Ce cas est un exemple d’application à outrance de la politique de l’entreprise sur les organismes et individus dangereux, qui a des répercussions sur la liberté d’expression des personnes qui souhaitent témoigner de leur solidarité et de leur sympathie dans les situations difficiles. Après que le Conseil a porté l’appel à l’attention de Meta, l’entreprise est revenue sur sa décision initiale et a restauré la publication.
Description du cas et contexte
En septembre 2023, un utilisateur Facebook a publié une vidéo contenant deux images sans légende. L’image à l’arrière-plan représentait deux individus en uniforme militaire avec des badges. Le texte « Brigade 444 – Combat » était inscrit en arabe sur l’un de ces badges. La seconde image, superposée à la première, représentait deux personnes en train d’en tirer une troisième de l’eau. Les mots arabes pour « west » (ouest) et « south » (sud) étaient apposés sur la poitrine des personnes sur les côtés, tandis que la personne au centre portait la mention « east » (est).
En août 2023, des affrontements armés ont eu lieu à Tripoli entre la Brigade 444 et les Forces spéciales RADA. Il s’agit de deux des milices qui luttent pour le pouvoir depuis le renversement de Mouammar Kadhafi en 2011. Dans son appel au Conseil, l’utilisateur a déclaré avoir publié la vidéo pour préciser que la Libye était « one people » (un seul peuple) avec « one army » (une seule armée) qui venait en aide à la cité de Derna, dans le Nord-Est de la Libye, après les inondations qui ont suivi l’écroulement de barrages lors du passage de la tempête Daniel en septembre 2023.
Meta a initialement supprimé la publication de Facebook, invoquant sa politique sur les organismes et individus dangereux.
Après que le Conseil a porté ce cas à l’attention de Meta, l’entreprise a déterminé que la suppression était incorrecte et a rétabli le contenu sur Facebook. L’entreprise a expliqué au Conseil que le contenu ne faisait nullement référence à un organisme ou à un individu dangereux et que, dès lors, il n’enfreignait pas les politiques de Meta.
Autorité et champ d’application du Conseil
Le Conseil jouit de l’autorité nécessaire pour examiner la décision de Meta à la suite d’un appel interjeté par l’utilisateur dont le contenu a été supprimé (article 2, section 1 de la Charte ; article 3, section 1 des Statuts).
Lorsque Meta reconnaît avoir commis une erreur et revient sur sa décision dans un cas soumis à l’examen du Conseil, ce dernier peut décider de ne statuer que sommairement sur ce cas (article 2, section 2.1.3 des Statuts). Le Conseil réexamine la décision initiale afin de mieux comprendre le processus de modération de contenu, de réduire les erreurs et d’accroître l’équité pour les personnes qui utilisent Facebook et Instagram.
Importance du cas
Ce cas est un exemple d’application à outrance de la politique de Meta sur les organismes et individus dangereux, y compris par les systèmes automatisés, qui peut avoir des répercussions sur la liberté d’expression des personnes qui souhaitent faire part de leurs commentaires sur l’actualité sur les plateformes de Meta.
Dans le cas Isolement d’Öcalan, le Conseil a recommandé à Meta d’« évaluer les procédés de modération automatisés destinés à la mise en application de la politique sur les individus et les organismes dangereux » (recommandation n° 2). Meta a indiqué qu’elle ne donnerait pas suite à cette recommandation étant donné que « les directives en matière d’application de cette politique dans ce cas-ci ne contribuaient pas directement aux performances de modération des outils automatisés ».
En ce qui concerne l’automatisation, le Conseil a appelé Meta à mettre en œuvre une procédure d’audit interne pour analyser en permanence un échantillon statistiquement représentatif des décisions de suppression automatisées afin de rectifier les erreurs de modération et d’en tirer des leçons (recommandation n° 5 du cas Symptômes du cancer du sein et nudité). Meta a indiqué qu’elle travaillait à la mise en œuvre de cette recommandation, mais n’a pas publié d’informations pour prouver sa mise en œuvre effective. Au quatrième trimestre de 2022, Meta a signalé qu’elle avait « fini de déployer à l’échelle mondiale de nouveaux messages plus spécifiques pour expliquer aux utilisateurs et aux utilisatrices si la suppression de leur contenu de Facebook était le résultat d’une décision automatisée ou d’un examen manuel », mais l’entreprise n’a pas fourni de preuves de ce qu’elle avançait. Dans la même décision, le Conseil a également recommandé à Meta d’« élargi[r] les rapports de transparence pour dévoiler des données sur le nombre de décisions de suppression automatisées par standard de la communauté et sur la proportion de ces décisions qui ont dû être annulées à la suite d’un examen manuel » (recommandation n° 6 du cas Symptômes du cancer du sein et nudité). Au troisième trimestre de 2023, Meta a déclaré qu’elle mettait au point une méthode de calcul cohérente de ce type d’indicateurs. Dans le cas Inquiétude pendjabie concernant le RSS en Inde, le Conseil a appelé Meta à « améliorer la qualité des informations qu’elle fournit au public au sujet du taux d’erreurs de modération en ajoutant ce taux par pays, par langue et par standard de la communauté dans ses rapports de transparence » (recommandation n° 3). Au troisième trimestre de 2023, Meta a indiqué travailler à la création d’indicateurs de précision, en parallèle de son travail sur la recommandation n° 6 du cas Symptômes du cancer du sein et nudité.
Le Conseil réaffirme que la mise en application intégrale des recommandations permettra de réduire le nombre d’erreurs de modération liées à la politique sur les organismes et les individus dangereux, en réduisant le nombre de suppressions erronées qui portent atteinte à la liberté d’expression des utilisateurs et des utilisatrices.
Décision
Le Conseil a annulé la décision initiale de Meta visant à supprimer le contenu. Le Conseil reconnaît que Meta a corrigé son erreur initiale une fois que le Conseil a porté le cas à l’attention de l’entreprise. Le Conseil souligne que la mise en œuvre complète de ces recommandations, ainsi que la publication d’informations démontrant le succès de leur mise en œuvre, pourrait réduire le nombre d’erreurs de modération au titre de la politique sur les organismes et individus dangereux sur les plateformes de Meta.
Retour aux décisions de cas et aux avis consultatifs politiques