Décision sur plusieurs affaires

Reportages sur la guerre à Gaza

Dans ces deux décisions sommaires, le Conseil a examiné deux publications consacrées à la guerre qui frappe la bande de Gaza.

2 cas inclus dans ce lot

Renversé

FB-VXKB1TZ5

Cas relatif à des personnes et organisations dangereuses sur Facebook

Plate-forme
Facebook
Sujet
Liberté d’expression,Journalisme,Guerres et conflits
Standard
Personnes et organisations dangereuses
Emplacement
Israël,Territoires palestiniens
Date
Publié le 4 juin 2024
Renversé

IG-50OFM0LV

Cas relatif à des personnes et organisations dangereuses sur Instagram

Plate-forme
Instagram
Sujet
Liberté d’expression,Journalisme,Guerres et conflits
Standard
Personnes et organisations dangereuses
Emplacement
Israël,Territoires palestiniens
Date
Publié le 4 juin 2024

Les décisions sommaires concernent les cas pour lesquels Meta est revenue sur sa décision initiale après que le Conseil les a portés à l’attention de l’entreprise. Elles contiennent des informations relatives aux erreurs reconnues par Meta. Elles sont approuvées par une partie du Conseil (et pas par l’ensemble de ses membres), n’impliquent pas de commentaires publics et n’ont pas valeur de précédent pour le Conseil. Les décisions sommaires exercent une influence directe sur les décisions de Meta en assurant la transparence quant à ses corrections et en identifiant les domaines dans lesquels Meta pourrait améliorer son application des politiques.

Résumé

Dans ces deux décisions sommaires, le Conseil a examiné deux publications consacrées à la guerre qui frappe la bande de Gaza. Après que le Conseil a porté ces deux appels à l’attention de Meta, l’entreprise est revenue sur ses décisions initiales et a restauré les deux publications.

À propos des cas

Dans le premier cas, un utilisateur d’Instagram a publié une courte vidéo en février 2024 extraite d’un reportage de Channel 4 News (Royaume-Uni) sur le meurtre d’un enfant palestinien. La vidéo est accompagnée d’une légende indiquant expressément qu’elle ne fait pas la promotion de personnes ou d’organisations dangereuses, et qu’elle relate la situation d’une famille palestinienne et des travailleurs humanitaires.

Le second cas concerne la publication d’une vidéo en janvier 2024 par un utilisateur de Facebook issue d’un reportage d’Al-Jazeera sur la guerre à Gaza. Elle fait état des négociations en cours pour la libération d’otages entre Israël et le Hamas.

Meta a initialement supprimé les publications respectives d’Instagram et de Facebook, invoquant sa politique sur les personnes et organisations dangereuses. En vertu de cette politique, l’entreprise supprime les « glorifications », les « soutiens » et les « représentations » d’entités désignées, de leurs dirigeants, de leurs fondateurs ou de leurs membres éminents, ainsi que toute référence équivoque à ceux-ci.

Dans leurs appels auprès du Conseil, les deux utilisateurs ont indiqué que les vidéos constituaient des reportages issus de médias et n’enfreignaient pas les Standards de la communauté de Meta. Après que le Conseil a porté ces deux cas à l’attention de Meta, l’entreprise a déterminé que les publications n’enfreignaient pas ses politiques et les a restaurées sur ses plateformes.

Autorité et champ d’application du Conseil

Le Conseil jouit de l’autorité nécessaire pour examiner les décisions de Meta à la suite d’appels interjetés par les utilisateurs dont le contenu a été supprimé (article 2, section 1 de la Charte ; article 3, section 1 des Statuts).

Lorsque Meta reconnaît avoir commis une erreur et revient sur sa décision dans un cas soumis à l’examen du Conseil, ce dernier peut sélectionner ce cas pour un résumé de la décision (article 2, section 2.1.3 des Statuts). Le Conseil réexamine la décision initiale afin de mieux comprendre le processus de modération de contenu, de réduire les erreurs et d’accroître l’équité pour les personnes qui utilisent Facebook, Instagram et Threads.

Signification des cas

Ces cas mettent en évidence les erreurs de mise en application d’une exception à la politique relative aux personnes et organisations dangereuses qui autorise les contenus « faisant état, discutant de manière neutre ou condamnant des personnes et organisations dangereuses ou leurs activités » afin de protéger un espace pour le « discours social et politique ». Ce type d’erreurs nuit aux efforts sincères pour évoquer et sensibiliser l’opinion publique au conflit qui frappe actuellement Gaza et aux autres régions affectées par le conflit.

Le Conseil a émis plusieurs recommandations afin d’améliorer la mise en application de la politique de Meta relative aux personnes et organisations dangereuses. Dans un avis consultatif en matière de politique, le Conseil a demandé à Meta d’« expliquer les méthodes qu’elle utilise pour évaluer la précision des examens manuels et les performances des systèmes automatisés dans la mise en application de sa politique sur les personnes et organisations dangereuses » (voir le cas relatif aux personnes dangereuses désignées sous le terme « chahid », recommandation n° 6). Le Conseil a également exhorté Meta à « évaluer l’exactitude des équipes d’examen qui appliquent l’autorisation d’informer en vertu de la politique relative aux personnes et organisations dangereuses afin d’identifier les problèmes systémiques à l’origine des erreurs de mise en application », une recommandation que Meta a indiqué avoir mise en application, sans pour autant publier d’informations démontrant la véracité de cette affirmation (Mention des talibans dans les informations d’actualité, recommandation n° 5). En outre, le Conseil a recommandé à Meta d’« ajouter des critères et illustrations à la politique de Meta sur les personnes et les organisations dangereuses afin de mieux appréhender les exceptions, notamment concernant les discussions neutres et les reportages d’actualités », une recommandation dont Meta a justifié la mise en place en publiant des informations connexes (Publication partagée d’Al Jazeera, recommandation n° 1).

Décision

Le Conseil a annulé les décisions initiales de Meta visant à supprimer les deux éléments de contenu. Le Conseil reconnaît que Meta a corrigé ses erreurs initiales une fois qu’il a porté ces cas à son attention.

Retour aux décisions de cas et aux avis consultatifs politiques