Le Conseil de surveillance annule la décision initiale de Facebook : Cas 2021-003-FB-UA
29 avril 2021
Le Conseil de surveillance a annulé la décision de Facebook de supprimer une publication en vertu de son standard de la communauté relatif aux personnes et aux organisations dangereuses. Facebook a restauré le contenu après que le Conseil a décidé d’examiner ce cas. Le Conseil a manifesté son inquiétude à propos du fait que Facebook n’a pas examiné l’appel à l’encontre de sa décision initiale. Le Conseil a également exhorté l’entreprise à prendre des mesures pour éviter toute erreur réduisant au silence les minorités religieuses.
À propos du cas
En novembre 2020, une personne a partagé une publication vidéo de Global Punjab TV, une entreprise de médias en ligne de langue pendjabie. La publication comprenait une interview de 17 minutes du professeur Manjit Singh, qui est décrit comme « un activiste social et un défenseur de la culture pendjabie ». Elle reprenait également une légende mentionnant l’organisation nationaliste hindoue, Rashtriya Swayamsevak Sangh (RSS), et le parti au pouvoir en Inde, Bharatiya Janata Party (BJP) : « Le RSS est la nouvelle menace. Ram Naam Satya Hai. Le BJP est devenu extrémiste. »
Dans le texte qui accompagnait la publication, la personne affirmait que le RSS menaçait de tuer des sikhs, un groupe religieux minoritaire en Inde, et de réitérer la « saga mortelle » de 1984, au cours de laquelle des bandes d’hindous ont massacré et brûlé des hommes, des femmes et des enfants sikhs. Cette personne soutenait que le Premier ministre Modi en personne fait peser la menace d’un « génocide des sikhs » sur conseil du président du RSS, Mohan Bhagwat. Elle affirmait également que les régiments sikhs de l’armée ont prévenu le Premier ministre Modi de leur détermination à mourir pour protéger les paysans sikhs et leurs terres au Pendjab.
Après avoir été signalée, la publication a été soumise à un examen manuel au cours duquel il a été déterminé qu’elle enfreignait le standard de la communauté relatif aux personnes et aux organisations dangereuses de Facebook, puis a été supprimée. L’utilisation du compte en question en a été automatiquement restreinte. Facebook a informé la personne concernée qu’elle ne serait pas en mesure d’examiner son appel de la suppression en raison d’une réduction temporaire de sa capacité d’examen due à la crise de COVID-19.
Principales observations
Entre la décision du Conseil d’examiner le cas et son attribution à un jury, Facebook a reconnu que le contenu avait été supprimé à tort et l’a restauré. Facebook a fait remarquer qu’aucun des groupes ou individus mentionnés dans la publication n’était considéré comme « dangereux » en vertu de ses règles. L’entreprise n’a pas non plus été en mesure d’identifier les mots spécifiques du contenu qui lui ont valu d’être supprimé par erreur.
Le Conseil a jugé que la décision initiale de Facebook de supprimer la publication ne correspondait pas à ses Standards de la communauté ni à ses responsabilités en matière de droits humains.
Le Conseil a noté que la publication mettait l’accent sur les inquiétudes d’une minorité et de l’opposition en Inde, qui seraient victimes de discrimination par le gouvernement. Il est particulièrement important que Facebook prenne des mesures pour prévenir les erreurs qui réduisent au silence de tels acteurs. Tout en tenant compte des circonstances uniques liés à la crise de COVID-19, le Conseil a estimé que Facebook n’avait pas accordé suffisamment de temps ni d’attention à l’examen de ce contenu. Il a insisté sur le fait que les personnes qui utilisent la plate-forme doivent pouvoir faire appel auprès de Facebook avant que les cas ne soient examinés par le Conseil et encouragé l’entreprise à restaurer sa capacité d’examen en priorité.
Compte tenu de ce qui précède, le Conseil a jugé particulièrement disproportionnées les restrictions excluant la personne à l’origine de la publication de Facebook. Il a également exprimé son inquiétude à propos du fait que les règles de Facebook relatives auxdites restrictions étaient éparpillées et qu’elles n’étaient pas reprises dans les Standards de la communauté, comme on aurait pu le croire.
Enfin, le Conseil a noté qu’en raison de la politique de Facebook en matière de transparence, il était particulièrement difficile d’évaluer si la mise en application du standard relatif aux personnes et aux organisations dangereuses avaient des répercussions particulières sur les religions et locuteurs de langues minoritaires en Inde.
La décision du Conseil de surveillance
Le Conseil a annulé la décision initiale de Facebook de supprimer le contenu. Dans une déclaration consultative en matière de politiques, le Conseil recommande à Facebook de :
- Traduire ses Standards de la communauté et ses standards de mise en application internes en pendjabi. Facebook doit également chercher à rendre ses Standards de la communauté accessibles dans toutes les langues parlées par un grand nombre de personnes qui utilisent la plate-forme.
- Restaurer dès que possible l’examen manuel des décisions de modération de contenu et l’accès à un processus d’appel manuel aux niveaux appliqués avant la pandémie tout en protégeant la santé de son personnel et de ses sous-traitants.
- Améliorer la qualité des informations qu’elle fournit au public au sujet du taux d’erreurs de modération en ajoutant ce taux par pays, par langue et par standard de la communauté dans ses rapports de transparence.
Pour plus d’informations :
Pour lire l’intégralité de la décision sur le cas, cliquez ici.
Pour lire un résumé des commentaires publics relatifs à ce cas, cliquez ici.