Renversé

Documentaire sur des abus sexuels d’enfants au Pakistan

Le Conseil de surveillance a annulé la décision de Meta de supprimer un film documentaire publié par Voice of America (VOA) Urdu, qui révèle l’identité d’enfants victimes d’abus sexuels puis assassinés au Pakistan dans les années 1990. La majorité estime qu’une tolérance d’intérêt médiatique aurait dû être appliquée.

Type de décision

Standard

Politiques et sujets

Sujet
Enfants / Droits des enfants, Journalisme, Sécurité
Norme communautaire
Nudité juvénile et exploitation sexuelle d’enfants

Régions/Pays

Emplacement
Pakistan

Plate-forme

Plate-forme
Facebook

Pour lire cette décision en ourdou, veuillez cliquer ici.
م مکمل فیصلہ اردو میں پڑھنے کے لیے، یہاں پر کلک کریں.

Résumé

Le Conseil de surveillance a annulé la décision de Meta de supprimer un film documentaire publié par Voice of America (VOA) Urdu, qui révèle l’identité d’enfants victimes d’abus sexuels puis assassinés au Pakistan dans les années 1990. Bien que le Conseil estime que la publication a enfreint le Standard de la communauté relatif à l’exploitation sexuelle, à la maltraitance et à la nudité d’enfants, la majorité est d’avis que le présent cas aurait mérité l’application d’une tolérance d’intérêt médiatique. Selon ces membres du Conseil, l’intérêt public continu quant aux reportages sur la maltraitance infantile dépasse les éventuels préjudices qui découlent de l’identification des victimes, qui n’ont pas survécu à ces crimes survenus il y a 25 ans. Principalement attaché à relater les faits et sensible au sort des victimes, le documentaire de VOA Urdu aurait pu informer le débat public sur la problématique répandue des abus sexuels commis sur des enfants, qui reste peu signalée au Pakistan. Ce cas met également en exergue la façon dont Meta pourrait mieux expliquer à ses utilisateurs les politiques qui bénéficient ou non des exceptions.

À propos du cas

En janvier 2022, le diffuseur Voice of America (VOA) Urdu a publié sur sa page Facebook un documentaire de 11 minutes consacré à Javed Iqbal, qui a assassiné et commis des abus sexuels sur une centaine d’enfants au Pakistan dans les années 1990. Ce documentaire en langue ourdou relate des faits bouleversants sur les crimes et le procès de l’auteur. On peut y voir certaines images de coupures de journaux qui montrent clairement les visages des enfants victimes ainsi que leurs noms, tandis que d’autres photos dévoilent des personnes en pleurs, potentiellement les proches des enfants victimes. La légende de la publication indique qu’un autre film sur ces mêmes crimes a récemment fait parler de lui dans l’actualité, tout en avertissant les spectateurs du contenu du documentaire. Cette publication a été vue environ 21,8 millions de fois et partagée environ 18 000 fois.

Entre janvier 2022 et juillet 2023, 67 utilisateurs l’ont signalée. Suite à deux examen manuel et automatisé menés, Meta a conclu que le contenu ne constituait pas une infraction. La publication a également été signalée séparément par le système HERO (High Risk Early Review Operations) de Meta, en raison de la forte probabilité qu’il devienne viral. L’équipe interne de Meta a donc procédé à un examen manuel, en s’appuyant sur son expertise linguistique, du marché et de la politique (plutôt que de faire appel à une équipe de modération manuelle externe). Après avoir fait remonter le contenu en interne, l’équipe chargée de la politique chez Meta a annulé la décision initiale de le conserver et l’a supprimé en raison de son infraction de la politique sur l’exploitation sexuelle, la maltraitance et la nudité d’enfants. L’entreprise a décidé de ne pas lui appliquer une tolérance d’intérêt médiatique. Meta a ensuite saisi le Conseil.

Principales observations

La majorité du Conseil affirme que Meta aurait dû appliquer la tolérance d’intérêt médiatique à ce contenu, et le conserver sur Facebook. Selon le Conseil, la publication a enfreint le Standard de la communauté sur l’exploitation sexuelle, la maltraitance et la nudité d’enfants, les enfants victimes étant identifiables par leurs visages et leurs noms. Cependant, la majorité estime que l’intérêt public qui réside dans le fait de relater ces crimes commis contre des enfants dépassait les préjudices susceptibles de toucher les victimes et leurs familles. En prenant sa décision, la majorité a remarqué que le documentaire avait été produit afin de sensibiliser l’opinion publique, ne dramatise pas les détails horribles et, surtout, que les crimes se sont déroulés il y a environ 25 ans, et qu’aucune des victimes n’est encore en vie. Le temps qui passe est le facteur le plus important, car cela implique que les éventuels préjudices qui pourraient affecter les enfants victimes ont diminué. En attendant, l’intérêt public demeure lorsqu’il s’agit d’abus commis sur des enfants.

Les spécialistes que le Conseil a consultés ont confirmé que les abus sexuels commis sur des enfants sont très répandus au Pakistan, mais que ces faits sont très peu signalés. La majorité a consulté les rapports d’experts sur les antécédents du Pakistan en matière de répression des médias indépendants et de musellement de la dissidence, sans parler de l’absence de mesures visant à empêcher ou à punir les graves crimes commis contre des enfants. Les plateformes de réseaux sociaux sont donc essentielles pour informer et obtenir des informations sur ce problème. Dans le cas présent, le documentaire de VOA Urdu a particulièrement contribué aux discussions publiques.

Une minorité du Conseil indique que, bien que la vidéo ait soulevé des questions d’intérêt public, ces sujets auraient pu être abordés en détail sans pour autant nommer et montrer les visages des victimes, et que par conséquent le contenu aurait dû être supprimé.

Le Conseil s’inquiète du temps qu’il aura fallu (18 mois) à Meta pour enfin décider du sort de ce contenu, pendant lequel il aura été vu 21,8 millions de fois, et se demande si les ressources de Meta pour les vidéos en langue ourdou sont suffisantes.

Bien que la très peu utilisée tolérance d’intérêt médiatique, une exception générale que seules les équipes de spécialistes de Meta peuvent appliquer, fût pertinente dans le présent cas, le Conseil remarque qu’aucune exception à la politique spécifique, telle que pour sensibiliser ou informer l’opinion publique, n’a été prévue dans le cadre de la politique sur l’exploitation sexuelle, la maltraitance et la nudité d’enfants. Meta doit clarifier ces questions auprès de ses utilisateurs.

Par ailleurs, elle pourrait préciser dans le langage public de cette politique ce qui peut être considéré comme une identification de victimes présumées « par le nom ou l’image ». Si VOA Urdu avait reçu une explication plus détaillée des règles qu’il enfreignait, il aurait pu republier son documentaire en retirant les images offensantes, par exemple en floutant les visages des victimes, si cela est autorisé.

Décision du Conseil de surveillance

Le Conseil de surveillance a annulé la décision de Meta de supprimer le contenu et demande que la publication soit restaurée.

Le Conseil recommande à Meta ce qui suit :

  • Intégrer une nouvelle section dans chaque Standard de la communauté décrivant les exceptions et tolérances qui s’appliquent. Si Meta prévoit une justification spécifique pour ne pas autoriser certaines exceptions qui s’appliquent à d’autres politiques (telles que pour les reportages ou la sensibilisation), Meta doit l’inclure dans cette nouvelle section.

* Les résumés de cas donnent un aperçu du cas et n’ont pas valeur de précédent.

Décision complète sur le cas

1. Résumé de la décision

Le Conseil de surveillance a annulé la décision de Meta de supprimer une publication Facebook diffusée sur la page de Voice of America Urdu, à savoir un film documentaire qui révèle l’identité d’enfants victimes d’abus sexuels puis assassinés au Pakistan dans les années 1990.

Selon le Conseil, la publication a enfreint le Standard de la communauté sur l’exploitation sexuelle, la maltraitance et la nudité d’enfants, car elle « identifiait des enfants victimes d’abus sexuels par leur nom et leur image ». La majorité du Conseil est cependant d’avis que Meta aurait dû appliquer la tolérance d’intérêt médiatique dans le cas présent, car l’intérêt public actuel de communiquer sur la maltraitance infantile au Pakistan dépasse les préjudices susceptibles de découler de l’identification des victimes après autant de temps. Une minorité du Conseil indique que ces problèmes auraient pu être abordés sans montrer les noms et les visages des victimes, la décision de Meta de supprimer la publication était donc légitime.

Afin de mieux informer ses utilisateurs des situations où les exceptions à la politique liées à la sensibilisation, aux reportages ou à d’autres justifications pourraient s’appliquer, Meta doit intégrer une nouvelle section dans chaque Standard de la communauté décrivant quelles exceptions à la politique et tolérances s’appliquent et expliquer pourquoi elles ne sauraient s’appliquer dans certains cas. Cette section doit préciser que les tolérances générales, comme l’intérêt médiatique, s’appliquent à l’ensemble des Standards de la communauté.

2. Description du cas et contexte

Le 8 janvier 2022, le diffuseur Voice of America Urdu, financé par le Gouvernement américain, a publié sur sa page Facebook un film documentaire de 11 minutes consacré à Javed Iqbal, un homme condamné au Pakistan pour avoir commis une série de crimes contre des enfants. Ce documentaire contient de nombreux détails en ourdou sur les crimes, notamment les abus sexuels suivis des meurtres d’une centaine d’enfants dans les années 1990. Il évoque également l’arrestation et le procès de l’auteur de ces crimes.

La vidéo contient des images de coupures de journaux de 1999 montrant les visages des enfants victimes ainsi que leurs noms et leurs villes d’origine. On y voit également des photos d’enfants découvertes lors de la perquisition au domicile de l’auteur. Le documentaire montre de nombreux détails sur les évènements et les preuves à charge trouvées sur la scène des crimes, notamment des cuves remplies d’acide dans lesquelles les corps auraient été dissous. Des images de personnes en pleurs y sont également montrées, potentiellement les proches des enfants victimes.

Le documentaire explique que Javed Iqbal a reconnu avoir emmené des enfants à son domicile, les y avoir agressés sexuellement, étranglés et mis leurs corps dans des bacs remplis d’acide. Il décrit son arrestation, avec son jeune complice, leurs procès et condamnations à mort, puis leur suicide en détention.

La légende de la publication, rédigée en ourdou, indiquait qu’un autre film relatant les mêmes évènements a déjà fait parler de lui dans l’actualité. Elle décrivait en outre la gravité des crimes, en avertissant les spectateurs que le documentaire contenait certains détails sur les abus sexuels et les actes de violence commis, notamment des interviews de personnes associées à l’auteur et à ses crimes.

La page Facebook de Voice of America Urdu réunit environ 5 millions de followers. Le contenu a été consulté environ 21,8 millions de fois, a suscité environ 51 000 réactions et 5 000 commentaires et a été partagé environ 18 000 fois. Entre janvier 2022 et juillet 2023, 67 utilisateurs l’ont signalé. Suite à deux examens manuels automatisé et externe menés au cours de cette période, Meta a conclu que le contenu ne constituait pas une infraction.

Le système HERO (High Risk Early Review Operations) de Meta a également signalé ce contenu huit fois en raison des signaux de viralité élevés remarqués entre janvier 2022 et le 15 juillet 2023. Le système HERO a été conçu pour identifier le contenu potentiellement en infraction qui risque fortement de devenir viral. Une fois identifié par le système, le contenu est examiné en priorité par l’équipe interne de Meta dotée de l’expertise linguistique, du marché et de la politique nécessaire (au lieu que des équipes de modération externe n’examinent le contenu).

Fin juillet 2023, suite à un rapport du système HERO, l’équipe interne chargée des opérations régionales de Meta a fait remonter le contenu aux spécialistes de la politique de Meta et leur a demandé de mener une évaluation en vertu de la tolérance d’intérêt médiatique. Après cet examen réalisé en août 2023, l’équipe chargée de la politique a annulé la décision initiale de conserver le contenu et l’a supprimé en raison de son infraction à la politique sur l’exploitation sexuelle, la maltraitance et la nudité d’enfants. Meta n’a pas accordé de tolérance d’intérêt médiatique à ce contenu, car elle a conclu que le risque de préjudice dépassait la valeur d’intérêt public. L’entreprise n’a pas précisé la nature et l’étendue de ce risque.

Meta n’a pas pénalisé le compte de l’organe de presse à l’origine de ce contenu en raison de son intérêt public et du contexte de la vidéo, qui visait à sensibiliser, ainsi que du temps (18 mois) qui s’est écoulé entre la publication et la suppression du contenu.

Meta a transmis ce cas au Conseil en raison de son importance et de sa complexité, car l’entreprise doit « tenir compte de la sécurité, de la confidentialité et de la dignité des enfants victimes tout en reconnaissant le fait que les images ne mettent pas l’accent sur leur identité, que les évènements décrits datent d’il y a plus de 30 ans et que la vidéo semble avoir pour but de sensibiliser aux crimes d’un tueur en série et de discuter de problématiques qui ont un intérêt public considérable ».

Le Conseil remarque le contexte suivant en parvenant à sa décision sur le cas présent. L’espace civique et la liberté des médias au Pakistan sont considérablement restreints. Les experts des droits humains de l’ONU et les organisations de la société civile ont souligné que l’État pakistanais est habitué à restreindre les libertés des médias et à menacer d’arrestations et de poursuites judiciaires les personnes qui critiquent ouvertement les autorités. Les médias ont été confrontés à des ingérences, au retrait de la publicité gouvernementale, à l’interdiction contre des présentateurs de télévision et du contenu des émissions. De la même manière, les militants, dissidents et journalistes qui exercent en ligne font souvent l’objet de menaces et de harcèlementorchestrés par l’État. Les médias indépendants ont également documenté les demandes de suppression de contenu adressées par les autorités pakistanaises aux entreprises de réseaux sociaux. Meta a indiqué dans son Espace modération qu’entre juin 2022 et juin 2023, elle a bloqué 7 665 publications dans certaines régions suite au signalement des autorités pakistanaises. L’accès local au contenu a été restreint en raison d’infractions présumées aux lois locales, même sans enfreindre nécessairement les politiques de Meta.

Malgré les confessions écrites qui auraient été envoyées à la police locale, les autorités n’ont mené aucune enquête approfondie sur les crimes de Javed Iqbal jusqu’à ce que des journalistes pakistanais qui ont reçu sa lettre de confession et enquêté à ce sujet publient un article dans le journal Jang daté du 3 décembre 1999, indiquant les noms et montrant les photos de 57 enfants victimes présumées, alertant ainsi leurs familles et suscitant de vives protestations publiques. Un large retentissement public global s’en est suivi au Pakistan et partout dans le monde sur les crimes, la confession, l’arrestation, la condamnation et le suicide de Javed Iqbal.

Entre janvier 2022 et janvier 2024, des films, des documentaires et des reportages ont ravivé l’intérêt et les discussions sur Javed Iqbal et ses crimes. « Javed Iqbal: The Untold Story of a Serial Killer », un film qui devait sortir en janvier 2022, a été interdit pendant plusieurs mois par le Bureau central pakistanais de la censure cinématographique, car le titre glorifierait Iqbal, ont indiqué certains médias. Ce film est finalement sorti plus tard la même année lors du UK Asian Film Festival. Les experts consultés par le Conseil et des médias indépendants ont expliqué que les producteurs ont modifié le film ainsi que son titre, qui est devenu « Kukri » (d’après le surnom de Javed Iqbal), avant d’être soumis une nouvelle fois au Bureau pakistanais de la censure. Le film a été autorisé et est sorti au Pakistan en juin 2023.

Les abus sexuels commis sur des enfants restent très répandus au Pakistan. Les experts que le Conseil a consultés ont indiqué que de 2020 à 2022, 5,4 millions de signalements ont été émis sur l’exploitation infantile en ligne au Pakistan sur les réseaux sociaux, d’après les données recueillies par le National Center for Missing and Exploited Children (NCMEC). Le NCMEC recueille les signalements documentés des abus sexuels commis sur des enfants sur les plateformes de réseaux sociaux basées aux États-Unis, sachant que 90 % de ces signalements concernent du contenu publié sur les plateformes de Meta. Sahil, une ONG basée à Islamabad indique qu’en moyenne chaque jour 12 enfants ont subi des abus sexuels au Pakistan au cours du premier semestre de 2023. Environ 75 % des plus de 2 200 cas recensés en 2023 ont eu lieu au Punjab, la province pakistanaise la plus densément peuplée. Deux terribles autres affaires criminelles signalées dans la ville de Kasur concernaient les abus sexuels commis par un gang sur 280 enfants et les abus sexuels suivis du meurtre d’une enfant de 6 ans, dont les médias ont montré des photos, et notamment de son cadavre.

3. Champ d’application et autorité du Conseil de surveillance

Le Conseil est compétent pour examiner les décisions que Meta lui présente pour examen (article 2, section 1 de la Charte ; article 2, section 2.1.1 des Statuts).

Le Conseil peut confirmer ou annuler la décision de Meta (article 3, section 5 de la Charte), et ce, de manière contraignante pour l’entreprise (article 4 de la Charte). Meta doit également évaluer la possibilité d’appliquer la décision à un contenu identique dans un contexte parallèle (article 4 de la Charte). Les décisions du Conseil peuvent inclure des recommandations non contraignantes auxquelles Meta doit répondre (article 3, section 4 de la Charte ; article 4 de la Charte). Lorsque Meta s’engage à donner suite aux recommandations, le Conseil surveille leur mise en œuvre.

4. Sources d’autorité et conseils

Les standards suivants et les précédents ont éclairé l’analyse du Conseil dans ce cas :

I. Décisions du Conseil de surveillance

II. Règles de Meta relatives au contenu

La justification de la politique sur l’exploitation sexuelle, la maltraitance et la nudité d’enfants indique que Meta n’autorise pas le contenu qui « exploite sexuellement ou met en danger les enfants ». En vertu de cette politique, Meta supprime « tout contenu identifiant ou ridiculisant les victimes présumées d’exploitation sexuelle en utilisant leur nom ou leur image ».

L’analyse du Conseil s’est appuyée sur l’engagement de Meta en faveur de la liberté d’expression, que l’entreprise qualifie de « primordial », et sur ses valeurs de sécurité, de vie privée et de dignité.

Tolérance d’intérêt médiatique

Meta définit la tolérance d’intérêt médiatique comme une tolérance à la politique générale qui peut être appliquée à tous les domaines des Standards de la communauté, y compris à la politique relative à l’exploitation sexuelle, à la maltraitance et à la nudité d’enfants. Elle permet de maintenir sur la plateforme des contenus qui enfreignent la loi si l’intérêt public l’emporte sur le risque de préjudice. Selon Meta, de telles évaluations ne sont effectuées que dans de « rares cas », après que l’équipe chargée de la politique de contenu a été saisie. Cette équipe évalue si le contenu en question représente une menace imminente pour la santé ou la sécurité publique, ou s’il exprime une opinion actuellement débattue dans le cadre d’un processus politique. Cette évaluation tient compte des circonstances propres à chaque pays, et notamment du fait que des élections sont en cours. Bien que l’identité de l’orateur soit une considération pertinente, l’autorisation n’est pas limitée au contenu publié par les organes d’information.

Meta a indiqué qu’entre le 1er juin 2022 et le 1er juin 2023, seules 69 tolérances d’intérêt médiatique ont été recensées dans le monde. Des chiffres similaires ont été signalés pour l’année passée.

III. Responsabilités de Meta en matière de droits humains

Les Principes directeurs relatifs aux entreprises et aux droits de l’homme des Nations Unies (PDNU), soutenus par le Conseil des droits de l’homme des Nations Unies en 2011, établissent un cadre de travail volontaire pour les responsabilités en matière de droits de l’homme des entreprises privées. En 2021, Meta a annoncé l’entrée en vigueur de sa Politique relative aux droits humains au sein de l’entreprise, dans laquelle elle a réaffirmé son engagement à respecter les droits humains conformément aux PDNU. Les standards internationaux suivants peuvent être pertinents pour l’analyse du Conseil sur les responsabilités de Meta en matière de droits humains dans le cas présent :

  • Les droits à la liberté d’expression : l’article 19 du Pacte international relatif aux droits civils et politiques (PIDCP) ; l’observation générale n° 34, Comité des droits de l’homme (2011) ; rapports du Rapporteur spécial des Nations Unies sur la liberté d’opinion et d’expression, A/74/486 (2019) ; A/HRC/38/35 (2018) ; A/69/335 (2014) et A/HRC/17/27 (2011).
  • L’intérêt supérieur de l’enfant : l’article 3 de la Convention relative aux droits de l’enfant (CIDE) ; l’observation générale n° 25, Comité des droits de l’enfant (2021). Par ailleurs, l’article 17 de la CIDE reconnaît l’importance que revêtent les médias grand public sur les droits de l’enfant à accéder à des informations relatives à la promotion de la santé physique et mentale des enfants.
  • Le droit à la vie privée : l’article 17 du PIDCP ; l’article 16 de la CIDE.

5. Soumissions de l’utilisateur

L’auteur de la publication a été notifié de l’examen par le Conseil et a eu la possibilité d’envoyer une déclaration. Aucune réponse n’a été reçue.

6. Soumissions de Meta

D’après Meta, la publication a enfreint le Standard de la communauté sur l’exploitation sexuelle, la maltraitance et la nudité d’enfants, car on peut y voir les visages identifiables des enfants victimes d’exploitation sexuelle, ainsi que leurs noms. Meta explique qu’un individu peut être identifié par son nom ou son image si « le contenu comporte au moins l’une des informations suivantes : (i) mention du nom de l’individu (prénom(s), nom de famille ou nom complet) sauf si le contenu indique explicitement que le nom a été inventé [ou] (ii) les images représentant le visage de l’individu ».

L’entreprise fait une distinction entre le contenu qui identifie des victimes d’abus sexuels majeures et mineures, les enfants ayant une « capacité réduite » à accorder leur consentement éclairé à être identifiés. Les risques d’une nouvelle victimisation, d’une discrimination au sein de leur communauté et d’une intensification de la violence à leur encontre restent donc importants pour les enfants. Meta ne prévoit ainsi aucune exception à la politique en vertu de la politique sur l’exploitation sexuelle, la maltraitance et la nudité d’enfants pour le contenu identifiant des victimes présumées d’exploitation sexuelle par le nom ou l’image qui est partagé à des fins de sensibilisation, d’information ou de condamnation des abus en question.

Les défenseurs des droits de l’enfant ont indiqué à Meta que ses politiques devraient garantir en priorité la sécurité des enfants, notamment dans les cas impliquant des enfants victimes de viol. D’autres parties prenantes externes lui ont expliqué qu’empêcher la victimisation des mineurs est un objectif qui doit dépasser l’éventuel intérêt médiatique qui réside dans l’identification des enfants victimes.

Le Conseil a demandé à Meta d’examiner cette décision de ne pas accorder de tolérance d’intérêt médiatique au contenu en l’espèce. L’entreprise a remarqué que, même si le contenu présentait une valeur d’intérêt public, le risque de préjudice qui réside dans l’identification des victimes demeurait important. Bien que les crimes aient été commis dans les années 1990, les victimes identifiées étaient des enfants, et les abus subis étaient de nature violente et sexuelle.

Dans le cas présent, Meta n’a pas pénalisé le compte de l’organe de presse à l’origine de ce contenu en raison de son intérêt public et du contexte de la vidéo, qui visait à sensibiliser, ainsi que du temps qui s’est écoulé entre la publication et la suppression du contenu.

En réponse aux questions du Conseil, Meta a affirmé utiliser son système HERO pour signaler un contenu de façon proactive avant qu’il n’atteigne son pic de viralité en s’appuyant sur un certain nombre de différents signaux pour identifier le contenu. Ce système vise à examiner et à prendre d’éventuelles mesures lorsqu’un contenu est susceptible de devenir viral. Il s’agit de l’un des nombreux outils de lutte contre le contenu viral préjudiciable sur la plateforme.

Le Conseil a posé 15 questions par écrit à Meta. Ces questions portaient sur les choix de Meta quant à sa politique sur l’exploitation sexuelle, la maltraitance et la nudité d’enfants, son système de pénalités et son système HERO. Meta a répondu aux 15 questions.

7. Commentaires publics

Le Conseil de surveillance a reçu 4 commentaires publics répondant aux critères de soumission. Deux commentaires provenaient des États-Unis et du Canada, un d’Europe et un de la zone Asie-Pacifique et Océanie. Pour consulter les commentaires publics soumis accompagnés d’un consentement à la publication, veuillez cliquer ici.

Les soumissions concernaient les thèmes suivants : l’importance de protéger la vie privée et l’identité des enfants victimes de maltraitance ainsi que la vie privée des familles ; l’interaction entre la Convention des Nations Unies sur les droits de l’enfant et la politique de Meta relative à l’exploitation sexuelle, la maltraitance et la nudité d’enfants ; le contexte informatif et de sensibilisation du documentaire ; et le rôle des journalistes dans le signalement de crimes commis contre des enfants.

8. Analyse du Conseil de surveillance

Le Conseil a accepté cette demande de Meta d’évaluer les conséquences du Standard de la communauté de Meta en matière d’exploitation sexuelle, de maltraitance et de nudité d’enfants sur les droits des enfants victimes, en particulier dans le contexte des reportages sur des crimes et lorsqu’un laps de temps considérable s’est écoulé. Ce cas concerne la protection de l’espace civique, qui fait partie des priorités stratégiques du Conseil. Le Conseil a examiné si ce contenu devait être restauré en analysant les politiques de contenu de Meta, ses responsabilités en matière de droits humains et ses valeurs.

8.1 Respect des politiques relatives au contenu de Meta

Le Conseil partage l’avis de Meta que le contenu en l’espèce a enfreint les règles explicites du Standard de la communauté sur l’exploitation sexuelle, la maltraitance et la nudité d’enfants, la vidéo montrant les visages identifiables ainsi que les noms des enfants victimes.

La majorité du Conseil affirme néanmoins que Meta aurait dû appliquer la tolérance d’intérêt médiatique à ce contenu et lui permettre de rester sur Facebook, au moment de l’escalation. Elle estime que l’intérêt public qui réside dans le fait de relater des crimes commis contre des enfants, dotés des mêmes caractéristiques que dans le cas qui nous préoccupe, dépassait les préjudices susceptibles de toucher les victimes et leurs familles. Cette conclusion repose largement sur le fait que ce documentaire a été produit à des fins de sensibilisation, ne se moque pas ni ne dramatise les détails horribles qu’il relate et, surtout, que les crimes se sont déroulés il y environ 25 ans, et qu’aucune des victimes n’est encore en vie.

Pour la majorité, ce laps de temps significatif constituait le facteur le plus important dans ce cas. Un quart de siècle après, les éventuelles conséquences sur les droits des enfants et de leurs familles peuvent diminuer, tandis que l’intérêt public que suscitent les reportages et la lutte contre la maltraitance infantile au Pakistan persiste. Dans le cas présent, les crimes commis contre ces enfants ont eu lieu il y a plus de 25 ans, et tous les enfants victimes identifiables que l’on voit dans le documentaire sont décédés.

La maltraitance infantile reste très répandue au Pakistan (voir la section 2) et est souvent évoquée dans le discours public. La majorité du Conseil a consulté les rapports d’experts sur les antécédents du Pakistan en matière de répression des médias indépendants et de musellement de la dissidence, sans parler de l’absence de mesures visant à empêcher ou à punir les graves crimes commis contre des enfants. Les plateformes de réseaux sociaux sont donc nécessaires à l’ensemble de la population, notamment les médias, afin de divulguer des informations et d’en recevoir sur la maltraitance infantile au Pakistan. Ce document s’est révélé majoritairement précis et factuel, tout en étant sensible au sort des victimes. Son contexte a été bien défini par rapport aux récentes décisions du gouvernement de censurer un film sur ce sujet, et a ainsi considérablement contribué aux discussions publiques.

Une minorité du Conseil estime que Meta ne doit pas appliquer sa tolérance d’intérêt médiatique dans le cas présent, soulignant qu’il était primordial de protéger la dignité et les droits des enfants victimes et de leurs familles, et que ni le temps qui passe ni aucune autre considération ne doit influencer cet objectif, contrairement à l’opinion de la majorité. La minorité remarque que, bien que la vidéo ait soulevé des questions d’intérêt public, il était possible d’en discuter en détail sans montrer les noms et les visages des victimes. En conséquence de quoi, la suppression de la publication répondait aux valeurs de Meta en matière de vie privée et de dignité.

En menant une évaluation relative à l’intérêt médiatique, le Conseil fait remarquer que Meta doit impérativement tenir compte des conséquences négatives susceptibles de survenir sur les droits humains en décidant de conserver ou de supprimer une publication. Ces considérations sont évoquées dans la prochaine section.

8.2 Respect des responsabilités de Meta en matière de droits humains

La majorité du Conseil estime que la suppression de cette publication n’était ni nécessaire ni proportionnée et que sa restauration sur Facebook est conforme aux responsabilités de Meta en matière de droits humains.

Liberté d’expression (article 19 du PIDCP)

L’article 19, paragraphe 2 du PIDCP prévoit une protection élargie du discours politique et du journalisme (observation générale n° 34 (2011), paragraphe 11). Le Rapporteur spécial des Nations Unies sur la liberté d’expression a déclaré que les États peuvent encourager les médias à réglementer eux-mêmes la façon dont ils évoquent et impliquent les enfants. Citant l’ensemble des projets de directives et de principes émis par la Fédération internationale des journalistes, le Rapporteur spécial des Nations Unies a indiqué qu’ils prévoyaient des « dispositions sur la nécessité d’éviter le recours à des clichés et de céder au sensationnalisme lors de la présentation de reportages mettant en scène des enfants » (A/69/335, paragraphe 63).

Lorsque des limitations de la liberté d’expression sont imposées par un État, elles doivent remplir des critères de légalité, d’objectif légitime, et de nécessité et de proportionnalité (article 19, paragraphe 3 du PIDCP). Ces exigences sont souvent reprises sous intitulé « test tripartite ». Le Conseil utilise ce cadre pour interpréter les engagements volontaires de Meta en matière de droits humains, à la fois pour la décision relative au contenu individuel en cours d’examen et pour ce que cela dit de l’approche plus large de Meta en matière de gouvernance du contenu. Comme l’a déclaré le Rapporteur spécial des Nations Unies sur la liberté d’expression, même si « les entreprises ne sont pas soumises aux mêmes devoirs que les gouvernements, leur influence est néanmoins telle qu’elle doit les inciter à se poser les mêmes questions qu’eux quant à la protection de la liberté d’expression de leurs utilisateurs » (A/74/486, paragraphe 41).

I. Légalité (clarté et accessibilité des règles)

Le principe de légalité consacré par la législation internationale relative aux droits humains exige que les règles utilisées pour limiter la liberté d’expression soient claires et accessibles par le public (observation générale n° 34, paragraphe 25). Les restrictions de l’expression doivent être formulées avec suffisamment de précision pour permettre aux individus d’adapter leur conduite en conséquence (ibid). En ce qui concerne Meta, l’entreprise doit fournir des indications aux utilisateurs sur les contenus autorisés ou non sur la plateforme. En outre, les règles qui limitent la liberté d’expression « ne peu[ven]t pas conférer aux personnes chargées de [leur] application un pouvoir illimité » et doivent « énoncer des règles suffisamment précises pour permettre aux personnes chargées de leur application d’établir quelles formes d’expression sont légitimement restreintes et quelles formes d’expression le sont indûment » (A/HRC/38/35, paragraphe 46).

Selon le Conseil, la politique relative à l’exploitation sexuelle, à la maltraitance et à la nudité d’enfants, telle qu’appliquée dans le cas présent, est suffisamment claire pour satisfaire le critère de légalité, mais que des améliorations pourraient y être apportées.

À l’instar des autres utilisateurs, les journalistes devraient recevoir des conseils détaillés sur la façon d’évoquer des sujets complexes sur les plateformes de réseaux sociaux conformément aux règles en vigueur. Il convient de préciser aux personnes que le partage d’images montrant le visage ou le nom d’un enfant victime n’est pas autorisé dans les discussions sur des sujets qui ont trait à la maltraitance infantile. Les directives internes, mises uniquement à la disposition des équipes d’examen de contenu de Meta, définissent plus en détail l’identification par le nom ou l’image. Le Conseil exhorte Meta à préciser ce qui constitue une identification des victimes présumées « par le nom ou l’image », notamment si « par le nom » inclut des noms partiels, et si « image » implique uniquement de montrer des visages, et/ou s’il est possible de les flouter.

Le Conseil remarque que Meta envisageait de modifier sa politique dans ce domaine, avant de décider de ne pas inclure l’exception relative à la « sensibilisation » en vertu de la politique sur l’exploitation sexuelle, la maltraitance et la nudité d’enfants, affirmant que cette position satisfaisait l’intérêt supérieur de l’enfant, évoqué dans l’article 3 de la CIDE. L’entreprise a constaté des problèmes liés à une nouvelle victimisation des enfants et à leurs capacités limitées à accorder leur consentement éclairé à ce que leur visage et leur nom apparaissent dans les reportages sur la maltraitance infantile. Dans l’intérêt de la transparence et afin de fournir des directives claires aux utilisateurs, la politique sur l’exploitation sexuelle, la maltraitance et la nudité d’enfants doit clairement indiquer qu’elle n’autorise pas l’identification des enfants victimes d’abus sexuels, même lorsque l’intention est d’informer, de sensibiliser ou de condamner lesdits abus. Compte tenu des nombreuses autres politiques qui prévoient des exceptions, Meta ne doit pas partir du principe que ne pas préciser si des exceptions s’appliquent suffit pour signaler que les reportages et les activités de plaidoyer des médias peuvent être supprimés sauf s’ils observent certaines conditions liées au respect de la dignité et de la vie privée. Cet avis pourrait être formulé de la même manière que les directives existantes dans la justification de la Politique, en expliquant pourquoi Meta impose une interdiction généralisée au partage, par exemple, de photos d’enfants nus, même si l’intention de leurs parents est inoffensive.

Cette mise à jour devrait indiquer que Meta peut appliquer une tolérance d’intérêt médiatique dans des circonstances très exceptionnelles. Le Conseil constate que l’explication de Meta concernant cette tolérance inclut un exemple d’autorisation à des fins d’intérêt public et historique : la photo intitulée « Terreur de la guerre » qui montre Phan Thị Kim Phúc, parfois surnommée de façon informelle la « petite fille au napalm ».

Il remarque que les exceptions à la politique et les tolérances générales, à savoir la tolérance d’intérêt médiatique et l’esprit de la tolérance de la politique, représentent deux choses différentes, sans pour autant être faciles à distinguer. Bien que chaque Standard de la communauté puisse ou non prévoir certaines exceptions à la politique, il est possible d’appliquer des tolérances générales à tous les domaines politiques dans les Standards de la communauté. Afin de fournir des directives claires et accessibles à ses utilisateurs, Meta doit donc créer une nouvelle section dans chaque Standard de la communauté pour décrire les exceptions à la politique et les tolérances générales qui s’appliquent. Si Meta prévoit une justification spécifique pour ne pas autoriser certaines exceptions qui s’appliquent à d’autres politiques (telles que pour la sensibilisation), Meta doit l’inclure dans cette nouvelle section. Cette section doit préciser que les tolérances générales s’appliquent à l’ensemble des Standards de la communauté.

II. Objectif légitime

Les restrictions à la liberté d’expression doivent poursuivre un objectif légitime, notamment la protection des droits d’autrui et la protection de l’ordre public et de la sécurité nationale.

Dans la décision sur le cas Un journaliste suédois dénonce des violences sexuelles sur mineurs le Conseil a conclu que la politique relative à l’exploitation sexuelle, la maltraitance et la nudité d’enfants vise à empêcher le préjudice hors ligne qui affecte les droits des mineurs. Le Conseil considère que la décision de Meta en l’espèce et la politique justifiant la suppression initiale répondent à l’objectif légitime de protéger les droits des enfants victimes d’abus sexuels à la santé physique et mentale (article 17 de la CIDE), et leurs droits à la vie privée (article 17 du PIDCP, article 16 de la CIDE), conformément à l’intérêt supérieur de l’enfant (article 3 de la CIDE).

III. Nécessité et proportionnalité

Le principe de nécessité et de proportionnalité stipule que les restrictions de la liberté d’expression « doivent être appropriées pour remplir leur fonction de protection ; elles doivent constituer le moyen le moins perturbateur parmi ceux qui pourraient permettre d’obtenir le résultat recherché » [et] « elles doivent être proportionnées à l’intérêt à protéger » (observation générale n° 34, paragraphes 33 et 34).

L’article 3 de la CIDE stipule que « dans toutes les mesures qui concernent les enfants, … l’intérêt supérieur de l’enfant doit être une considération primordiale. » Conformément à cet article, les Directives de l’UNICEF relatives aux reportages sur les enfants constatent que les droits et la dignité de chaque enfant doivent être respectés en toute circonstance et que l’intérêt supérieur de l’enfant doit être protégé en priorité, notamment la défense et la promotion des droits de l’enfant.

Le Comité des droits de l’enfant a souligné que les États doivent tenir compte de tous les droits des enfants, notamment « être protégés de toute maltraitance et exprimer leurs opinions et les voir dûment prises en compte » (observation générale n° 25, paragraphe 2). Le Comité a par ailleurs insisté sur le fait que « la protection de la vie privée est essentielle pour le pouvoir d’action, la dignité et la sécurité des enfants et pour l’exercice des droits de l’enfant » et que « ces atteintes peuvent également être dues à … un inconnu qui partage en ligne des informations sur un enfant » (observation générale n° 25, paragraphe 67).

Le Conseil souligne que la décision de Meta d’interdire le contenu qui identifie des enfants victimes d’exploitation sexuelle par le nom ou l’image représente une politique nécessaire et proportionnée. Les circonstances justifiant l’inobservation de cette règle seront exceptionnelles et nécessiteront une évaluation détaillée du contexte par des spécialistes en la matière (pour les standards analogues ou supplémentaires liés à la prise en compte de circonstances exceptionnelles lorsqu’il s’agit de déterminer s’il convient d’autoriser l’identification des personnes en situation de vulnérabilité, voir le cas sur la Vidéo de prisonniers de guerre arméniens).

Pour la majorité du Conseil, Meta aurait dû conserver ce conseil sur la plateforme en vertu de sa tolérance d’intérêt médiatique. La majorité indique que la conservation du contenu selon la tolérance d’intérêt médiatique respectait l’intérêt supérieur de l’enfant dans le cas présent, ce que Meta reconnaît à raison comme une préoccupation qui devrait être considérée de la plus haute importance.

Pour la majorité, trois facteurs clés liés constituent la base d’une tolérance d’intérêt médiatique. Le facteur principal de ce cas reposait sur le temps qui passe et le fait que tous les enfants victimes concernés sont décédés, ce qui réduit l’éventuel préjudice direct qu’ils pourraient subir. De plus, les abus sexuels commis sur des enfants demeurent un phénomène très répandu, mais très peu signalé au Pakistan. Ensuite, ce documentaire ne dramatise pas ce sujet, mais sensibilise l’opinion publique de façon presque pédagogique et pourrait informer le débat public sur une préoccupation fondamentale liée aux droits humains qui touche depuis longtemps le Pakistan comme d’autres pays.

La majorité du Conseil remarque que, bien que les images et les noms des victimes parus dans les coupures de journaux pourraient être rendus inidentifiables, la suppression de l’intégralité du documentaire compte tenu de tous les facteurs susmentionnés s’avère disproportionnée. Au lieu de cela, Meta pourrait rechercher d’autres solutions pour informer ses utilisateurs au sujet de la politique pertinente et fournir des solutions techniques pour empêcher les infractions, comme nous l’avons vu précédemment. Compte tenu de l’ensemble des combinaisons spécifiques des facteurs susmentionnés, le documentaire aurait dû recevoir une tolérance d’intérêt médiatique.

Pour une minorité du Conseil, la décision de Meta de supprimer ce contenu et de ne pas appliquer la tolérance d’intérêt médiatique était conforme à ses responsabilités en matière de droits humains et à l’intérêt supérieure de l’enfant dans le cas présent. La minorité estime que ce type de reportage doit faire de la dignité des enfants victimes de maltraitance une priorité et s’assurer que le respect de leur vie privée soit considéré indépendamment du temps qui passe et de la valeur présumée de ce contenu pour le débat public.

Ces membres du Conseil affirment qu’en alertant l’opinion sur la maltraitance infantile, il en va de la responsabilité éthique des journalistes et des médias de suivre les codes de conduite de leur profession. Compte tenu du fait que les réseaux sociaux basés sur les interactions peuvent favoriser le sensationnalisme et l’effet « piège à clics », Meta devrait atténuer ce phénomène en adoptant des politiques de contenu strictes qui exigeraient que les médias fassent preuve de responsabilité lorsqu’ils informent l’opinion sur des sujets sensibles impliquant des enfants. Cette façon de faire respecterait les standards applicables en matière de droits humains qui encouragent les « signalements fondés sur des faits qui ne révèlent pas l’identité des enfants victimes et survivants » (observation générale n° 25, paragraphe 57) et qui « encouragent les médias à fournir des informations appropriées concernant tous les aspects de … l’exploitation et les abus sexuels dont les enfants sont victimes, en utilisant une terminologie appropriée, tout en protégeant la vie privée et l’identité des enfants victimes ou témoins à chaque instant » (Protocole facultatif à la Convention relative aux droits de l’enfant, paragraphe 28.f).

Bien que le contenu en l’espèce porte sur un sujet d’intérêt public, la minorité du Conseil estime qu’en exigeant une observation plus stricte des standards éthiques du journalisme, Meta permettrait de relater ces sujets dans le respect de la dignité et des droits à la vie privée des victimes et de leurs familles. Une minorité du Conseil souligne en outre le caractère proportionné de la décision de Meta de ne pas appliquer de sanction au compte du média d’actualités après avoir supprimé le contenu.

Bien que le Conseil ait annulé la décision de Meta de supprimer cette publication, il reste préoccupé par le fait qu’il ait fallu 18 mois à l’entreprise pour décider du sort d’un contenu dont elle a finalement conclu qu’il constituait une infraction, malgré les dizaines de signalements d’utilisateurs et les alertes émises par son propre système de prévision de la viralité. Meta doit enquêter sur les raisons de ces lacunes et évaluer si ses systèmes ou ressources d’examen des vidéos en langue ourdou sont suffisants (voir le cas sur la Mention des talibans dans les informations d’actualité). L’efficacité des systèmes est fondamentale pour garantir que ce type de publications, le cas échéant, soit transmis aux équipes internes dotées de l’expertise nécessaire pour évaluer la présence ou l’absence d’un intérêt public qui justifierait le maintien du contenu sur la plateforme. Le contenu en l’espèce illustrait bien ce qu’est un contenu viral (ayant généré plus de 21,8 millions de vues) qui aurait dû être détecté rapidement, en vue d’empêcher les éventuels préjudices, mais également de mener une évaluation de l’intérêt médiatique.

Le Conseil constate également que si Voice of America Urdu, le média d’actualités à l’origine de ce contenu, avait reçu une explication plus détaillée de la ligne politique qu’il avait enfreinte, il aurait pu y apporter des modifications puis le republier, par exemple en supprimant les extraits où l’on voit des images offensantes ou en floutant les visages des victimes. À cet égard, Meta devrait envisager de fournir à ses utilisateurs des notifications plus précises sur les infractions, conformément à la recommandation n° 1 du Conseil dans le cas sur les Arméniens d’Azerbaïdjan et la recommandation n° 2 dans le cas sur les Symptômes du cancer du sein et nudité. Par ailleurs, afin de faciliter la tâche des utilisateurs et de réduire le risque qu’ils mettent en danger la vie des enfants, Meta devrait prévoir de fournir à ses utilisateurs des instructions plus précises ou un accès à ses produits, par exemple, à des outils permettant de flouter les visages dans les vidéos afin qu’ils observent plus facilement les politiques de Meta relatives à la protection des droits de l’enfant. Meta pourrait également étudier la faisabilité de suspendre un tel contenu pendant un certain temps avant de le supprimer définitivement si aucune modification satisfaisante n’y est apportée (voir la recommandation n° 13 dans le cas sur l’avis consultatif en matière de politique Partage d’informations privées sur le lieu de résidence). L’auteur du contenu concerné pourrait recevoir une notification lui indiquant que, pendant la période de suspension, il peut éviter la suppression ultérieure de son contenu en utilisant ce type d’outils afin de le rendre conforme aux politiques de Meta.

9. Décision du Conseil de surveillance

Le Conseil de surveillance a annulé la décision de Meta visant à supprimer le contenu et demande que la publication soit restaurée.

10. Recommandations

Politique de contenu

1. Afin de mieux informer les utilisateurs lorsque des exceptions à la politique peuvent s’appliquer, Meta devrait créer une nouvelle section dans chaque Standard de la communauté indiquant en détail les exceptions et les tolérances applicables. Si Meta prévoit une justification spécifique pour ne pas autoriser certaines exceptions qui s’appliquent à d’autres politiques (telles que pour les reportages ou la sensibilisation), Meta doit l’inclure dans cette section du Standard de la communauté.

Le Conseil considérera que cette mesure aura été mise en place lorsque chaque Standard de la communauté inclura la section décrite et les justifications pour les exceptions qui s’appliquent ou non.

* Note de procédure :

Les décisions du Conseil de surveillance sont préparées par des panels de cinq membres et approuvées par la majorité du Conseil. Les décisions du Conseil ne représentent pas nécessairement les opinions personnelles de tous les membres.

Pour la décision sur ce cas, des recherches indépendantes ont été commandées au nom du Conseil. Le Conseil a bénéficié de l’aide de Duco Advisors, une société de conseil spécialisée dans la géopolitique, la confiance et la sécurité, ainsi que la technologie. Memetica, une organisation qui effectue des recherches open source sur les tendances des réseaux sociaux, a également fourni une analyse.

Retour aux décisions de cas et aux avis consultatifs politiques