Le Conseil de surveillance rend ses premières décisions accélérées sur le conflit entre Israël et le Hamas
19 décembre 2023
Aujourd’hui, le Conseil de surveillance a publié ses premières décisions accélérées dans 2 cas concernant le conflit entre Israël et le Hamas. Annoncés le 7 décembre, ces cas ont été tranchés dans un délai accéléré de 12 jours. Le Conseil est tenu de rendre des décisions accélérées dans un délai de 30 jours.
Le Conseil de surveillance a choisi ces cas en raison de l’importance de la liberté d’expression dans les situations de conflit. Ces 2 cas sont représentatifs du type d’appels que les utilisateurs de la région ont soumis au Conseil depuis les attentats du 7 octobre. Le premier cas concerne la vidéo publiée sur Facebook d’une Israélienne suppliant ses ravisseurs de ne pas la tuer alors qu’elle est prise en otage lors des raids terroristes sur Israël le 7 octobre. Quant au second cas, il concerne une vidéo publiée sur Instagram, montrant ce qui semble être les conséquences d’une frappe sur ou près de l’hôpital Al-Shifa dans la ville de Gaza pendant l’offensive terrestre d’Israël dans le nord de la bande de Gaza. La vidéo montre des Palestiniens, dont des enfants, tués ou blessés.
Dans les 2 cas, le Conseil a annulé la décision initiale de Meta de supprimer le contenu de ses plateformes, mais a approuvé la décision ultérieure de l’entreprise de restaurer les publications avec un écran d’avertissement.
Vous pouvez lire l’intégralité des décisions du Conseil ici.
Principales observations
Les décisions du Conseil traitent d’un certain nombre d’aspects de la performance de Meta pendant la crise qui ont affecté la liberté d’expression.
En réaction à une augmentation exceptionnelle du nombre de contenus violents et explicites sur ses plateformes à la suite des attentats du 7 octobre, Meta a temporairement abaissé les seuils de confiance des systèmes de classification automatique (classificateurs) qui identifient et suppriment les contenus en infraction avec ses politiques en matière de contenu violent et explicite, de discours haineux, de violence et incitation, et d’intimidation et harcèlement. Ces mesures s’appliquaient au contenu provenant d’Israël et de Gaza dans toutes les langues.
Cela signifie que Meta a utilisé ses outils automatisés de manière plus agressive pour supprimer les contenus susceptibles d’enfreindre ses politiques. Bien que cela réduise la probabilité que Meta ne supprime pas les contenus en infraction qui pourraient autrement échapper à la détection ou lorsque la capacité d’examen manuel est limitée, cela augmente également la probabilité que Meta supprime par erreur des contenus liés au conflit qui ne sont pas en infraction.
Le cas de l’hôpital Al-Shifa montre qu’une surveillance humaine insuffisante de la modération automatisée lors d’une réponse à une crise peut conduire à la suppression incorrecte d’un discours qui peut être d’un intérêt public important. La décision initiale de supprimer ce contenu ainsi que le rejet de l’appel de l’utilisateur ont été pris automatiquement sur la base d’un score de classificateur, sans aucun examen manuel. Cette situation a pu être exacerbée par la réaction de crise de Meta, qui a abaissé le seuil de suppression des contenus relevant de la politique relative aux contenus violents et explicites à la suite des attentats du 7 octobre.
Dans les 2 cas examinés par le Conseil, Meta a rétrogradé des contenus pour lesquels elle avait appliqué des écrans d’avertissement, les excluant ainsi de toute recommandation à d’autres utilisateurs de Facebook ou d’Instagram, alors même que l’entreprise avait déterminé que les publications visaient à sensibiliser l’opinion publique.
Le cas des otages enlevés en Israël note que la position initiale de Meta, le 7 octobre, était de supprimer « les images de tiers représentant le moment d’attaques [désignées] sur des victimes visibles », conformément à sa politique relative aux personnes et organisations dangereuses. Le Conseil approuve cette position initiale et estime que la protection de la sécurité et de la dignité des otages devrait être l’approche par défaut de Meta. Toutefois, le Conseil estime que la décision ultérieure de Meta d’autoriser ce type de contenu avec un écran d’avertissement lorsqu’il est partagé à des fins de condamnation, de sensibilisation, de reportage ou d’appel à la libération était justifiable. En effet, compte tenu de l’évolution rapide de la situation et du coût élevé de la suppression de ce type de contenu pour la liberté d’expression et l’accès à l’information, Meta aurait dû adapter plus rapidement sa politique.
Meta a confirmé que le 20 octobre ou aux alentours de cette date, elle a commencé à autoriser les contenus relatifs à la prise d’otages lors des attentats du 7 octobre, mais, dans un premier temps, uniquement ceux provenant de comptes figurant sur les listes de vérification croisée de l’entreprise. Cette autorisation n’a été étendue à tous les comptes que le 16 novembre, et uniquement pour les contenus publiés après cette date.
Cette situation met en lumière certaines des préoccupations antérieures du Conseil concernant les vérifications croisées, notamment le traitement inégal des utilisateurs, le manque de transparence des critères d’inclusion et la nécessité d’assurer une plus grande représentation des utilisateurs dont le contenu est susceptible d’être important du point de vue des droits humains sur les listes de vérification croisée de Meta. L’utilisation du programme de vérification croisée de cette manière contredit également la façon dont Meta a décrit et expliqué l’objectif du programme, à savoir qu’il s’agit d’un système de prévention des erreurs et non d’un programme qui fournit à certains utilisateurs privilégiés des règles plus permissives.
Enfin, Meta a la responsabilité de conserver les preuves de violations potentielles des droits humains et du droit humanitaire international. Même lorsque le contenu est supprimé des plateformes de Meta, il est essentiel de conserver ces preuves dans l’intérêt de la responsabilité future. Bien que Meta ait expliqué qu’elle conservait pendant un an tous les contenus enfreignant ses Standards de la communauté, le Conseil demande instamment que les contenus spécifiquement liés à des crimes de guerre potentiels, des crimes contre l’humanité et des violations graves des droits humains soient identifiés et conservés de manière plus durable et accessible à des fins de responsabilisation à plus long terme.
En outre, le Conseil a réaffirmé qu’il était urgent de donner suite aux orientations suivantes en matière de modération des contenus :
- Au début de l’année, Meta s’est engagée à élaborer un protocole visant à conserver les contenus susceptibles de faciliter les enquêtes sur les crimes d’atrocité ou les violations des droits humains. Bien que Meta ait indiqué qu’elle en était aux dernières étapes de l’élaboration d’un protocole, l’entreprise devrait rapidement démontrer son approche dans ce domaine au cours du conflit actuel (recommandation n° 1 dans le cas de la vidéo sur les prisonniers de guerre arméniens).
- Les contenus identifiés dans le cadre des banques du Service de mise en correspondance du contenu multimédia devraient faire l’objet d’une réévaluation afin de déterminer s’ils constituent une infraction s’ils sont jugés fréquents et s’ils font l’objet d’un recours fructueux (recommandation n° 1 dans le cas des dessins animés de la police colombienne).
- Le Conseil a recommandé à Meta d’informer les utilisateurs lorsque l’automatisation est utilisée pour prendre des mesures coercitives à l’encontre de leur contenu. Meta déclare avoir terminé le déploiement mondial de cette recommandation, mais l’entreprise doit encore fournir au Conseil des preuves de son implémentation (recommandation n° 3 dans le cas des symptômes du cancer du sein et de la nudité).
Remarque : le Conseil de surveillance est une organisation indépendante qui examine les décisions de Meta de supprimer ou de conserver des contenus sur Facebook et Instagram dans un certain nombre de cas emblématiques. Il examine et, le cas échéant, annule les décisions de l’entreprise. Les décisions du Conseil sont contraignantes pour Meta.