Renversé
Inquiétude pendjabie concernant le RSS en Inde
Le Conseil de surveillance a annulé la décision de Facebook de supprimer une publication en vertu de son standard de la communauté relatif aux personnes et aux organisations dangereuses.
Pour lire cette décision en pendjabi, cliquez ici.
ਇਹ ਫ਼ੈਸਲਾ ਪੰਜਾਬੀ ਵਿੱਚ ਪੜ੍ਹਨ ਲਈ,"ਇੱਥੇ ਕਲਿੱਕ ਕਰੋ।
Résumé du cas
Le Conseil de surveillance a annulé la décision de Facebook de supprimer une publication en vertu de son standard de la communauté relatif aux personnes et aux organisations dangereuses. Facebook a restauré le contenu après que le Conseil a décidé d’examiner ce cas. Le Conseil a manifesté son inquiétude à propos du fait que Facebook n’a pas examiné la réclamation de l’utilisateur à l’encontre de sa décision initiale. Le Conseil a également exhorté l’entreprise à prendre des mesures pour éviter toute erreur réduisant au silence les minorités religieuses.
À propos du cas
En novembre 2020, un utilisateur a partagé une publication vidéo de l’entreprise de médias en ligne de langue pendjabie, Global Punjab TV. Cette publication comprenait une interview de 17 minutes du professeur Manjit Singh, qui est décrit comme « un activiste social et défenseur de la culture pendjabie ». Elle reprenait également une légende mentionnant l’organisation nationaliste hindoue, Rashtriya Swayamsevak Sangh (RSS), et le parti au pouvoir en Inde, Bharatiya Janata Party (BJP) : « Le RSS est la nouvelle menace. Ram Naam Satya Hai. Le BJP est devenu extrémiste. »
Dans le texte qui accompagnait la publication, l’utilisateur affirmait que le RSS menaçait de tuer des sikhs, un groupe religieux minoritaire en Inde, et de réitérer la « saga mortelle » de 1984 au cours de laquelle des bandes d’hindous avaient massacré et brûlé des hommes, des femmes et des enfants sikhs. L’utilisateur soutenait ensuite que le Premier ministre Modi en personne fait peser la menace d’un « génocide des sikhs » sur conseil du président du RSS, Mohan Bhagwat. L’utilisateur affirmait également que les régiments sikhs de l’armée ont prévenu le Premier ministre Modi de leur détermination à mourir pour protéger les paysans sikhs et leurs terres au Pendjab.
Après avoir été signalée par un utilisateur, la publication a été soumise à un examen manuel au cours duquel il a été déterminé qu’elle enfreignait le standard de la communauté relatif aux personnes et aux organisations dangereuses, puis elle a été supprimée. L’utilisation du compte en question en a été automatiquement restreinte. Facebook a informé l’utilisateur qu’elle ne serait pas en mesure d’examiner son appel de la suppression en raison d’une réduction temporaire de sa capacité d’examen due à la crise de COVID-19.
Principales observations
Entre la décision du Conseil d’examiner le cas et son attribution à un jury, Facebook a reconnu que le contenu avait été supprimé à tort et l’a restauré. Facebook a fait remarquer qu’aucun des groupes ou individus mentionnés dans la publication n’était considéré comme « dangereux » dans ses règles. L’entreprise n’a pas non plus été en mesure d’identifier les mots spécifiques du contenu qui lui ont valu d’être supprimé par erreur.
Le Conseil a jugé que la décision initiale de Facebook de supprimer la publication n’était pas cohérente avec ses Standards de la communauté ni avec ses responsabilités en matière de droits de l’homme.
Le Conseil a noté que la publication mettait l’accent sur les inquiétudes d’une minorité et de l’opposition en Inde, qui seraient victimes de discrimination par le gouvernement. Il est particulièrement important que Facebook prenne des mesures pour prévenir les erreurs qui réduisent au silence de tels acteurs. Tout en tenant compte des circonstances uniques liées à la crise de COVID-19, le Conseil a estimé que Facebook n’avait pas accordé suffisamment de temps ni d’attention à l’examen de ce contenu. Il insiste sur le fait que les utilisateurs doivent pouvoir faire appel auprès de Facebook avant que les cas ne soient examinés par le Conseil et encourage l’entreprise à restaurer sa capacité d’examen en priorité.
Compte tenu de ce qui précède, le Conseil a jugé particulièrement disproportionnées les restrictions excluant l’utilisateur de Facebook. Il a également exprimé son inquiétude à propos du fait que les règles de Facebook relatives auxdites restrictions étaient éparpillées et qu’elles n’étaient pas reprises dans les Standards de la communauté, comme on aurait pu le croire.
Enfin, le Conseil a noté qu’en raison de la politique de Facebook en matière de transparence, il était particulièrement difficile d’évaluer si l’application du standard relatif aux personnes et aux organisations dangereuses avaient des répercussions particulières sur les religions et locuteurs de langues minoritaires en Inde.
Décision du Conseil de surveillance
Le Conseil a annulé la décision initiale de Facebook de supprimer le contenu. Dans un avis consultatif sur la politique, le Conseil recommande à Facebook de :
- traduire ses Standards de la communauté et ses standards de mise en application internes en pendjabi. Facebook doit également chercher à rendre ses Standards de la communauté accessibles dans toutes les langues parlées par un grand nombre de ses utilisateurs.
- restaurer dès que possible l’examen manuel des décisions de modération de contenu et l’accès à un processus d’appel manuel aux niveaux appliqués avant la pandémie tout en protégeant la santé de son personnel et de ses sous-traitants.
- améliorer la qualité des informations qu’elle fournit au public au sujet du taux d’erreurs de modération en ajoutant ce taux par pays, par langue et par standard de la communauté dans ses rapports de transparence.
*Les résumés de cas fournissent une présentation du cas et n’ont pas valeur de précédent.
Décision complète sur le cas
1. Résumé de la décision
Le Conseil de surveillance a annulé la décision de Facebook de supprimer le contenu. Le Conseil note qu’entre sa décision d’examiner le cas et l’attribution de ce dernier à un jury, Facebook a déterminé que le contenu avait été supprimé à tort et l’a restauré. Le Conseil a estimé que le contenu en question ne glorifiait, ni ne supportait, ni ne représentait aucune personne ni organisation dangereuse. La publication mettait en évidence les actes présumés de maltraitance infligée aux minorités par le gouvernement et ses partisans en Inde et était d’intérêt public. Le Conseil s’est inquiété des erreurs commises lors de l’examen du contenu et de l’absence d’un processus d’appel efficace à la disposition de l’utilisateur. Les erreurs de Facebook ont nui à la liberté d’expression de l’utilisateur ainsi qu’au droit des minorités en Inde à accéder à l’information.
2. Description du cas
Le contenu traitait d’allégations de discrimination à l’égard des minorités et d’actes pour les réduire au silence par le « Rashtriya Swayamsevak Sangh » (RSS) et le Bharatiya Janata Party (BJP). Le RSS est une organisation nationaliste hindoue qui aurait été impliquée dans des actes de violence à l’encontre des minorités religieuses en Inde. Le « BJP » est le parti au pouvoir en Inde, celui auquel appartient le Premier ministre actuel Narendra Modi, et entretient une relation étroite avec le RSS.
En novembre 2020, un utilisateur a partagé une publication vidéo de l’entreprise de médias en ligne de langue pendjabie, Global Punjab TV, ainsi qu’un texte s’y rapportant. La publication comprenait une interview de 17 minutes du professeur Manjit Singh, décrit comme « un activiste social et défenseur de la culture pendjabie ». Dans sa publication, Global Punjab TV a ajouté la légende : « Le RSS est la nouvelle menace. Ram Naam Satya Hai. Le BJP est devenu extrémiste. » L’entreprise médiatique a également ajouté la description supplémentaire : « Nouvelle menace. Ram Naam Satya Hai ! Le BJP devient extrémiste. Les universitaires défient directement Modi ! » Le contenu a été publié lors des gigantesques manifestations des agriculteurs en Inde, abordaient brièvement les raisons de ces protestations et leur apportait son soutien.
Lors du partage de la publication de Global Punjab TV, l’utilisateur a ajouté un texte affirmant que la CIA avait désigné le RSS comme étant une « organisation terroriste hindoue fanatique » et que le Premier ministre indien Narendra Modi en avait été le président a une certaine époque. L’utilisateur a écrit que le RSS menaçait de tuer des sikhs, un groupe religieux minoritaire en Inde, et de réitérer la « saga mortelle » de 1984 au cours de laquelle des bandes d’hindous ont attaqué des sikhs. Il soutient : « Le RSS a utilisé l’expression mortelle “Ram naam sat hai”. » Le Conseil comprend que la phrase “Ram Naam Satya Hai” est un chant funéraire qui aurait été utilisé en guise de menaces par certains nationalistes hindous. L’utilisateur soutenait ensuite que le Premier ministre Modi en personne fait peser la menace d’un « génocide des sikhs » sur conseil du président du RSS, Mohan Bhagwat. Il termine en affirmant qu’en Inde, les sikhs devraient être sur leurs gardes et que les régiments sikhs de l’armée ont prévenu le Premier ministre Modi de leur détermination à mourir pour protéger les paysans sikhs et leurs terres au Pendjab.
La publication est restée en ligne pendant 14 jours et a été consultée moins de 500 fois avant d’être signalée par un autre utilisateur pour « terrorisme ». La publication a été soumise à un examen manuel, au cours duquel il a été déterminé qu’elle enfreignait le standard de la communauté relatif aux personnes et aux organisations dangereuses, puis elle a été supprimée, ce qui a automatiquement restreint l’utilisation du compte pour une période donnée. Dans la notification qu’elle a envoyée à l’utilisateur, Facebook a fait remarquer que sa décision était finale et ne pouvait être contestée en raison d’une réduction temporaire de sa capacité d’examen due à la crise de COVID-19. Aussi l’utilisateur a-t-il fait appel auprès du Conseil de surveillance.
Entre la décision du Comité de sélection des cas d’examiner le cas et son attribution à un jury, Facebook a reconnu que le contenu avait été supprimé à tort et l’a restauré. Le Conseil a néanmoins attribué le cas à un jury.
3. Autorité et champ d’application
Le Conseil jouit de l’autorité nécessaire pour examiner la décision de Facebook en vertu de l’article 2 (Autorité responsable de l’examen) de la Charte du Conseil et peut confirmer ou infirmer cette décision en vertu de l’article 3, section 5 (Procédures d’examen : résolution de la Charte). Facebook n’a pas soumis de raison pour l’exclusion du contenu comme l’exige l’article 2, section 1.2.1 (Contenu indisponible pour l’examen par le Conseil) des Statuts du Conseil ni indiqué qu’elle considère le cas comme étant inéligible en vertu de l’article 2, section 1.2.2 (Obligations légales) des Statuts. En vertu de l’article 3, section 4 (Procédures d’examen : décisions) de la Charte du Conseil, la décision finale peut inclure un avis consultatif sur la politique, qui sera pris en compte par Facebook pour orienter ses futures politiques.
Facebook a restauré le contenu de l’utilisateur après avoir reconnu son erreur, ce qui n’aurait probablement pas été le cas si le Conseil n’avait pas décidé d’examiner le cas. Conformément à la décision sur le cas 2020-004-IG-UA, la décision de Facebook de restaurer le contenu n’empêche pas le Conseil d’examiner le cas. Les inquiétudes concernant l’origine de l’erreur, le préjudice qui en a découlé ainsi que la nécessité d’assurer qu’elle ne se répète pas restent d’actualité. Le Conseil offre aux utilisateurs la possibilité d’être écoutés et de recevoir des explications exhaustives par rapport à ce qui s’est passé.
4. Standards pertinents
Le Conseil de surveillance a pris les éléments suivants en considération dans sa décision :
I. Standards de la communauté Facebook :
La politique de Facebook relative aux personnes et aux organisations dangereusesétablit ce qui suit : « Afin d’éviter et d’empêcher tout danger réel, les organisations ou individus qui revendiquent des objectifs violents ou qui sont impliqués dans des activités violentes ne sont pas les bienvenus sur Facebook ». Elle stipule en outre que Facebook supprime « tout contenu soutenant ou faisant l’éloge de groupes, dirigeants ou individus impliqués dans ces activités ».
II. Valeurs de Facebook :
Les valeurs de Facebook sont détaillées dans l’introduction des Standards de la communauté.
La liberté d’expression y est décrite comme « primordiale » :
L’objectif de nos Standards de la communauté a toujours été de créer un espace d’expression et de donner une voix aux personnes. […] Nous souhaitons que les personnes puissent s’exprimer ouvertement sur les sujets qui comptent pour elles, même si d’autres peuvent marquer leur désaccord ou y trouveraient à redire.
Facebook peut limiter la liberté d’expression en faveur des autres valeurs, notamment la sécurité et la dignité :
La sécurité : Nous nous engageons à faire de Facebook un endroit sûr. Les formes d’expression menaçantes peuvent intimider, exclure ou réduire au silence et ne sont pas autorisées sur Facebook.
La dignité : Nous pensons que chacun mérite les mêmes droits et la même dignité. Nous attendons de chaque personne qu’elle respecte la dignité d’autrui et qu’elle ne harcèle ni ne rabaisse les autres.
III. Normes relatives aux droits de l’homme :
Les Principes directeurs relatifs aux entreprises et aux droits de l’homme des Nations Unies (PDNU), soutenus par le Conseil des droits de l’homme des Nations Unies en 2011, établissent un cadre de travail volontaire pour les responsabilités relatives aux droits de l’homme des entreprises privées. Facebook a renforcé son engagement à respecter les normes relatives aux droits de l’homme conformément aux PDNU dans une nouvelle politique d’entreprise qui est entrée en vigueur en mars 2021. L’analyse du Conseil sur ce cas s’est appuyée sur les normes de droits de l’homme suivantes :
La liberté d’expression : l’article 19 du Pacte international relatif aux droits civils et politiques (PIDCP) ; l’Observation générale n° 34, Comité des droits de l’homme (2011) ; les rapports du Rapporteur spécial sur la liberté d’opinion et d’expression : A/HRC/38/35 (2018) et A/74/486 (2019)
Le droit à la non-discrimination : l’article 2, paragraphe 1 et l’article 26 du PIDCP ; l’Observation générale n° 23, Comité des droits de l’homme (1994) ; la Déclaration des droits des personnes appartenant à des minorités nationales ou ethniques, religieuses et linguistiques de l’Assemblée générale, telle qu’interprétée par l’Expert indépendant sur les questions relatives aux minorités dans A/HRC/22/49 paragraphes 57 et 58 (2012) ; Rapporteur spécial sur les questions relatives aux minorités, A/HRC/46/57, (2021)
Le droit à un recours effectif : l’article 2, paragraphe 3 du PIDCP ; l’Observation générale n° 31, Comité des droits de l’homme (2004) ; l’Observation générale n° 29, Comité des droits de l’homme (2001) ;
Le droit à la sécurité de sa personne : L’article 9 du PIDCP, paragraphe 1, tel qu’interprété dans l’Observation générale n° 35, paragraphe 9.
5. Déclaration de l’utilisateur
L’utilisateur a indiqué au Conseil que la publication n’était ni menaçante ni criminelle, mais qu’elle répétait simplement les propos tenus dans la vidéo et qu’elle reflétait son ton. L’utilisateur s’est plaint des restrictions de compte qui lui ont été imposées. Il a suggéré que Facebook supprime simplement les vidéos problématiques sans pour autant restreindre l’accès aux comptes des utilisateurs, sauf s’ils se comportent de manière menaçante ou criminelle. L’utilisateur a également affirmé que des milliers de personnes avaient interagi avec son contenu et a demandé à ce que le compte soit rétabli immédiatement.
6. Explication de la décision de Facebook
Selon Facebook, suite à un unique signalement de la publication, la personne qui a examiné le contenu a estimé à tort qu’elle enfreignait le standard de la communauté relatif aux personnes et aux organisations dangereuses. Facebook a informé le Conseil que la publication de l’utilisateur ne faisait aucune mention de personnes ou d’organisations considérées comme dangereuses. Il s’est avéré que les propos tenus dans la publication ne constituaient pas une infraction.
Facebook a expliqué que l’erreur était due à la longueur de la vidéo (17 minutes), au nombre d’intervenants (deux), à la complexité du contenu et à ses allégations concernant différents groupes politiques. L’entreprise a ajouté que les personnes chargées d’examiner les contenus passaient des milliers de publications en revue chaque jour et qu’elles commettaient parfois des erreurs. Facebook a déclaré qu’en raison de la quantité de contenus à examiner, ces personnes n’avaient pas toujours la possibilité de regarder les vidéos dans leur intégralité. Facebook n’a pas été en mesure de préciser la partie du contenu qui a été considérée comme enfreignant les règles de l’entreprise.
Lorsqu’il a fait appel de la décision de Facebook, l’utilisateur a été informé que l’entreprise ne pourrait pas examiner la publication en raison d’un manque de personnel dû à la crise de COVID-19.
7. Soumissions de tierces parties
Le Conseil de surveillance a reçu six commentaires publics en rapport avec ce cas. Deux de ces commentaires provenaient d’Europe et quatre des États-Unis et du Canada. Les soumissions traitaient des thèmes suivants : la portée de l’expression politique, le droit légal de Facebook à modérer du contenu et le contexte politique en Inde.
Pour lire les commentaires publics soumis pour ce cas, veuillez cliquer ici.
8. Analyse du Conseil de surveillance
8.1 Respect des Standards de la communauté
Le Conseil a conclu que la décision initiale de Facebook de supprimer le contenu n’était pas cohérente avec son standard de la communauté relatif aux personnes et aux organisations dangereuses.
Le contenu faisait référence au BJP ainsi qu’au RSS et à certains de ces dirigeants. Facebook a expliqué qu’aucun de ces groupes ou individus n’était considéré comme « dangereux » en vertu de ses Standards de la communauté et qu’elle n’était pas en mesure d’identifier les mots spécifiques du contenu qui lui ont valu d’être supprimé. Le Conseil a noté que, même si ces organisations avaient été considérées comme dangereuses, le contenu les critiquaient clairement. La publication faisait l’éloge d’un seul groupe : les agriculteurs indiens qui protestaient. Il apparaît donc que trop peu de temps ou d’attention a été accordé à l’examen de ce contenu.
Le Conseil estime que le standard de la communauté relatif aux personnes et aux organisations dangereuses stipule clairement que le contenu en infraction sera supprimé. L’introduction aux Standards de la communauté ainsi que les Pages d’aide de Facebook et Newsroom indiquent que des infractions sévères ou répétées peuvent entraîner une perte d’accès à certaines fonctionnalités. Dans ce cas-ci, Facebook a expliqué au Conseil qu’elle a imposé des restrictions automatiques au compte de l’utilisateur pour une période donnée en raison d’infractions répétées. Le Conseil a jugé que cette décision aurait été cohérente avec les Standards de la communauté de l’entreprise s’il y avait effectivement eu infraction.
Facebook a expliqué au Conseil que les restrictions de compte étaient automatiques. Elles sont imposées une fois que l’infraction aux Standards de la communauté a été détectée et dépend de l’historique d’infractions de l’individu. Cela signifie que la personne chargée d’examiner le contenu ne sait pas si la suppression entraîne une restriction d’accès au compte et qu’elle n’est pas impliquée dans la sélection de ladite restriction. Le Conseil note que les conséquences liées aux erreurs d’application des standards peuvent être graves et fait part de son inquiétude à propos du fait que des restrictions ont été imposées à tort au compte dans ce cas-ci.
8.2 Respect des valeurs de Facebook
Le Conseil a jugé que la décision de Facebook de supprimer le contenu n’était pas cohérente avec ses valeurs de liberté d’expression, de dignité et de sécurité. Le contenu faisait référence à un rapport médiatique, était lié à d’importants problèmes politiques et incluait un commentaire reprenant des allégations d’infraction aux droits des minorités et de réduction au silence de l’opposition par le RSS et certains responsables de haut rang au sein du BPJ. La suppression à tort de la publication nuit donc aux valeurs de liberté d’expression et de dignité.
Facebook a indiqué qu’elle accordait la priorité à la valeur de sécurité lorsqu’elle appliquait le standard de la communauté relatif aux personnes et aux organisations dangereuses. Toutefois, dans ce cas-ci, le contenu ne mentionnait, ni ne glorifiait aucune personne ou organisation considérée comme dangereuse. Á l’inverse, le Conseil a estimé que le contenu critiquait des acteurs gouvernementaux et des groupes politiques.
8.3 Respect des responsabilités de Facebook en matière des droits de l’homme
L’application par Facebook de son standard de la communauté relatif aux personnes et aux organisations dangereuses n’était pas cohérente avec les responsabilités de l’entreprise en matière de droits de l’homme ni avec ses engagements publics par rapport aux PDNU. Les principes 11 et 13 appellent les entreprises à éviter ou à limiter toutes répercussions négatives sur les droits de l’homme qui pourraient découler de leurs propres activités ou de leurs partenariats avec des tiers, y compris avec des acteurs de l’État.
I. Liberté d’expression et d’information (article 19 du PIDCP)
L’article 19 du PIDCP garantit le droit à la liberté d’expression et accorde une importance particulière à l’expression sans entraves dans le cadre des débats publics, en particulier en ce qui concerne les personnalités politiques et les discussions au sujet des droits de l’homme (Observation générale 34, paragraphes 11 et 34).
L’article 19 garantit également le droit de chercher à obtenir et d’obtenir des informations, y compris de la part des médias (Observation générale 34, paragraphe 13). Ces droits sont garantis sans discrimination aucune, et le droit relatif aux droits de l’homme met spécifiquement l’accent sur l’importance accordée aux médias divers et indépendants, en particulier pour les minorités ethniques et linguistiques (Observation générale 34, paragraphe 14).
a. Légalité
Le Conseil a précédemment fait part de ses inquiétudes liées à l’accessibilité du standard de la communauté relatif aux personnes et aux organisations dangereuses, y compris concernant l’interprétation que faisait Facebook de l’expression « faire l’éloge », ainsi qu’au processus pour désigner les personnes et organisations dangereuses (décision sur le cas 2020-005-FB-UA). Il est important d’établir des règles précises pour limiter tout pouvoir discrétionnaire et empêcher toute décision arbitraire (Observation générale 34, paragraphe 25) et protègent également contre les préjugés. Cela permet également aux utilisateurs de Facebook de comprendre les règles qui sont appliquées contre eux. Le Rapporteur spécial des Nations Unies sur la liberté d’expression a fait part de son inquiétude à propos du fait que les entreprises de médias sociaux adoptent des règles vagues qui interdisent, au sens large, toute « éloge » et tout « soutien » des haut placés des organisations dangereuses (rapport A/HRC/38/35, paragraphe 26).
Les conséquences découlant d’une infraction à la règle, par exemple la désactivation de certaines fonctionnalités ou de la totalité du compte, doivent également être claires. Le Conseil est préoccupé par le fait que les informations relatives aux restrictions de compte sont éparpillées et ne sont pas toutes reprises dans les Standards de la communauté, comme on aurait pu le croire. Il est important d’avertir et d’informer les utilisateurs de manière adéquate lorsqu’ils enfreignent les règles afin qu’ils puissent adapter leur comportement en conséquence. Le Conseil réitère ses recommandations précédentes, notant que Facebook ne doit pas s’attendre à ce que les utilisateurs synthétisent les règles à partir de plusieurs sources et que les règles devraient être reprises dans les Standards de la communauté (décision sur le cas 2020-006- FB-FBR, section 9.2).
Le Conseil fait part de son inquiétude à propos du fait que les Standards de la communauté ne sont pas traduits en pendjabi, une langue largement répondue à l’échelle mondiale avec 30 millions de locuteurs en Inde. Les standards de mise en application internes de Facebook ne sont pas non plus disponibles en pendjabi pour les modérateurs travaillant dans cette langue. Cela risque certainement d’aggraver le problème des utilisateurs qui ne comprennent pas les règles et d’augmenter la probabilité d’erreurs de modération. Les répercussions spécifiques qui pourraient toucher les populations minoritaires sont source de préoccupation en matière des droits de l’homme (A/HRC/22/49, paragraphe 57).
b. Objectif légitime
L’article 19, paragraphe 3 du PIDCP précise que les objectifs légitimes comprennent le respect des droits ou de la réputation d’autrui, ainsi que la protection de la sécurité nationale, de l’ordre public, ou de la santé publique et des bonnes mœurs. Facebook a indiqué que l’objectif du Standard de la communauté relatif aux personnes et aux organisations dangereuses était de protéger les droits d’autrui. Le Conseil se dit satisfait que la politique poursuit un objectif légitime, en particulier pour protéger le droit à la vie, la sécurité des personnes ainsi que l’égalité et la non-discrimination (Observation générale 34, paragraphe 28 ; Décision du Conseil de surveillance 2020-005-FB-UA).
c. Nécessité et proportionnalité
Les restrictions doivent être nécessaires et proportionnelles pour atteindre un objectif légitime. Il doit y avoir un lien direct entre la nécessité et la proportionnalité de la mesure particulière prise et de la menace découlant de l’expression (Observation générale 34, paragraphe 35). Facebook a reconnu que sa décision de supprimer le contenu était une erreur et ne soutient pas que cette mesure était nécessaire ou proportionnelle.
Les erreurs restreignant la liberté d’expression en matière politique sont une sérieuse source de préoccupation. La situation est d’autant plus inquiétante si de telles erreurs sont fréquentes, en particulier si elles portent préjudice à des locuteurs de langues ou à des groupes religieux minoritaires qui peuvent déjà être marginalisés politiquement. Le Rapporteur spécial des Nations Unies sur les questions relatives aux minorités a fait part de son inquiétude concernant les discours haineux à l’égard des groupes minoritaires sur Facebook en Inde (A/HRC/46/57, paragraphe 40). Compte tenu de ce contexte régional, les erreurs peuvent réduire aux silence les minorités qui cherchent à contrer les discours discriminatoires et haineux, comme c’est le cas ici.
Au moment de la publication de ce contenu, le contexte politique en Inde, marqué par les protestations antigouvernementales massives des agriculteurs et par l’augmentation de la pression exercée par le gouvernement sur les plateformes de médias sociaux pour supprimer tout contenu à ce sujet, souligne l’importance de prendre les bonnes décisions. Dans ce cas-ci, le contenu était lié aux protestations et à la réduction au silence de l’opposition. Il comprenait également un lien renvoyant vers une interview sur ces sujets réalisée par un média de langue minoritaire. Les plates-formes dominantes doivent éviter de nuire à la liberté d’expression des minorités qui protestent contre leur gouvernement et devraient défendre la diversité et le pluralisme médiatiques (Observation générale 34, paragraphe 40). Les restrictions de compte qui ont, à tort, exclu l’utilisateur de la plateforme durant cette période critique, étaient particulièrement disproportionnées.
Facebook a expliqué qu’elle n’était pas en mesure d’examiner le contenu de l’utilisateur en appel en raison de ses capacités réduites pendant la pandémie de COVID-19. Bien que le Conseil reconnaisse l’unicité des circonstances, il souligne une nouvelle fois l’importance des processus d’appel transparents et accessibles que Facebook doit mettre à disposition des utilisateurs pour qu’ils puissent contester les décisions de l’entreprise (PDNU, Principe 11 ; A/74/486, paragraphe 53). Comme l’a déclaré le Conseil dans sa décision 2020-004-IG-UA, les cas doivent être reçus en appel par Facebook avant de lui être transmis. Pour assurer le droit au recours des utilisateurs, Facebook doit rétablir sa capacité d’examen dès que possible.
Le Conseil reconnaît que les erreurs sont inévitables lors de la modération de contenus à cette échelle. Néanmoins, la responsabilité de Facebook à éviter et à limiter toutes répercussions négatives sur les droits de l’homme, ainsi qu’à y réagir, nécessite de l’entreprise qu’elle apprenne de ces erreurs (PGNU, Principes 11 et 13).
En examinant ce seul cas, il est impossible de déterminer si cette mise en application était symptomatique d’un parti pris intentionnel ou involontaire de la part du modérateur. Facebook a également refusé de fournir des réponses spécifiques aux questions du Conseil relatives aux éventuels appels de la part des autorités indiennes à limiter les contenus liés aux protestations des agriculteurs, les publications critiquant le gouvernement pour la manière dont il traite ces derniers ou les contenus concernant les protestations de manière générale. Facebook a déterminé que les informations demandées n’étaient pas raisonnablement requises dans le cadre du processus de décision conformément à l’esprit de la Charte et/ou ne pouvaient ou ne devaient pas être fournies en raison de restrictions ou de préoccupations d’ordre juridique, de confidentialité, de sécurité ou de protection des données. Facebook a avancé les Statuts du Conseil de surveillance, Article 2, Section 2.2.2 pour justifier son refus.
Facebook a répondu à la question du Conseil relative à la manière dont les processus de modération mis en place par Facebook en Inde étaient indépendants de l’influence du gouvernement. L’entreprise a expliqué que les membres de son personnel suivaient des formations propres à leur région, à leur marché ou à leur rôle dans le cadre de l’initiative internationale pour l’éthique et la conformité, qui promeut l’honnêteté, la transparence, l’intégrité, la responsabilité et des valeurs éthiques. En outre, le personnel de Facebook est lié par un Code de conduite et une Politique de lutte contre la corruption.
Le Conseil souligne l’importance d’établir des procédures pour examiner les décisions de modération de contenu, y compris par le biais de contrôles, pour détecter et corriger les éventuels partis pris dans les processus de décision manuels et automatiques, en particulier lorsqu’ils concernent des régions en crise. Ces évaluations doivent prendre en compte le potentiel des campagnes coordonnées par les gouvernements et les acteurs non étatiques pour signaler malicieusement les actes de dissidence.
La transparence est essentielle pour garantir la surveillance publique des actions de Facebook en la matière. En raison du manque de détails dans les rapports de transparence de Facebook, il est difficile pour le Conseil ou d’autres acteurs d’évaluer, par exemple, si l’application du standard relatif aux personnes et aux organisations dangereuses a des répercussions particulières sur les utilisateurs, en particulier sur les locuteurs de langues minoritaires en Inde. Pour éclairer le débat, Facebook doit rendre publiques davantage de données et fournir une analyse de ce qu’elles signifient.
9. Décision du Conseil de surveillance
Le Conseil de surveillance a annulé la décision de Facebook de supprimer le contenu et demande que la publication soit restaurée. Le Conseil note que Facebook a déjà pris des mesures à cet effet.
10. Avis consultatif sur la politique
Les recommandations suivantes sont numérotées et le Conseil demande à Facebook de fournir une réponse individuelle à chacune d’entre elles telles en l’état.
Accessibilité
1. Facebook doit traduire ses Standards de la communauté et ses standards de mise en application internes en pendjabi. Facebook doit chercher à rendre ses Standards de la communauté accessibles dans toutes les langues parlées par un grand nombre de ses utilisateurs. Cela permettrait aux utilisateurs de comprendre parfaitement les règles auxquelles ils doivent se conformer lorsqu’ils utilisent les produits de Facebook. Cela simplifierait également la tâche des utilisateurs désireux de contacter Facebook au sujet de contenus susceptibles d’enfreindre leurs droits.
Droit au recours
2. Conformément à la recommandation du Conseil dans le cas 2020-004-IG-UA, l’entreprise doit restaurer dès que possible l’examen manuel et l’accès à un processus d’appel manuel aux niveaux appliqués avant la pandémie tout en protégeant pleinement la santé de son personnel et de ses sous-traitants.
Rapports de transparence
3. Facebook doit améliorer ses rapports de transparence pour augmenter la qualité des informations qu’elle fournit au public au sujet du taux d’erreurs de modération en ajoutant ces informations par pays, par langue et par standard de la communauté. Le Conseil soutient que des rapports de transparence plus détaillés aideront le public à détecter les endroits où les erreurs sont les plus fréquentes, y compris les répercussions spécifiques susceptibles de toucher les groupes minoritaires, et à alerter Facebook pour que l’entreprise y remédie.
*Note de procédure :
Les décisions du Conseil de surveillance sont préparées par des panels de cinq membres et approuvées par une majorité du Conseil. Elles ne représentent pas nécessairement les opinions personnelles de tous ses membres.
Pour la décision sur ce cas, des recherches indépendantes ont été commandées au nom du Conseil. Un institut de recherche indépendant, dont le siège se trouve à l’université de Göteborg et mobilisant une équipe de plus 50 experts en science sociale sur six continents ainsi que 3200 experts nationaux du monde entier, a fourni son expertise sur le contexte socio-politico-culturel. L’entreprise Lionbridge Technologies, LLC, dont les spécialistes parlent couramment plus de 350 langues et travaillent dans 5000 villes du monde entier, a fourni son expertise linguistique.
Retour aux décisions de cas et aux avis consultatifs politiques