Le Conseil de surveillance étend sa portée à Threads
22 février 2024
Aujourd’hui, le Conseil de surveillance étend sa portée à Threads, une application Meta qui permet de partager des statuts et de participer à des conversations publiques. Même si nous examinons déjà les appels de personnes utilisant Facebook et Instagram depuis octobre 2020, c’est une étape importante pour le Conseil, qui étend la portée de ses examens à cette nouvelle application.
Le fait que les réseaux sociaux laissent des organismes indépendants modérer leur contenu permet de prendre de meilleures décisions, plus impartiales. Et en retour, cela leur permet de gagner la confiance des personnes qui utilisent ces plateformes. Le Conseil salue la décision de Meta d’étendre cette approche à Threads. Nous pensons que nous pouvons aider Threads à faire preuve de plus de transparence, à adopter une approche mondiale et à respecter la liberté d’expression et d’autres droits humains.
Que va-t-il se passer ?
À partir aujourd’hui, les personnes qui utilisent Threads pourront contester les décisions de Meta sur le contenu éligible en faisant appel auprès du Conseil de surveillance. Le processus d’appels de Threads est similaire à celui de Facebook et Instagram. Une fois qu’une personne a épuisé la voie de recours interne de Meta, l’entreprise lui fournira un ID de référence du Conseil de surveillance qui lui permettra de soumettre son cas à examen sur le site Web du Conseil de surveillance. En plus des 130 millions de personnes qui utilisent Threads, Meta aussi pourra transmettre des cas concernant le contenu de Threads au Conseil.
Comment le Conseil prendra-t-il des décisions sur le contenu de Threads ?
Pour Threads, tout comme pour Facebook et Instagram, nous sélectionnerons les cas qui sont le plus susceptibles de toucher de nombreuses personnes à travers le monde, qui ont une importance cruciale pour le débat public ou qui soulèvent des questions majeures sur les politiques de Meta. Notre impact va toutefois bien au-delà des cas individuels, étant donné que nous offrons des solutions à des problèmes qui touchent des millions de personnes.
Tout comme pour Facebook et Instagram, le Conseil pourra mettre plus ou moins de temps à examiner ces cas en fonction de leur nature, du moment où ils se sont produits et de leur complexité. Certains cas seront traités en tant que décisions standard (en 90 jours et avec des commentaires publics), d’autres (si Meta reconnaît son erreur au moment de la sélection du cas par le Conseil) en tant que décisions sommaires, ce qui veut dire qu’elles seront rendues de façon concise, et d’autres (les cas d’urgence) seront résolus de manière accélérée.
Les membres du Conseil examineront les décisions de Meta sur le contenu en fonction des Règles de la communauté Instagram (qui s’appliquent également à Threads), des valeurs de l’entreprise et de ses engagements internationaux en matière de droits humains, en particulier de liberté d’expression. Nos décisions seront contraignantes et Meta devra les mettre en œuvre dans un délai de sept jours. Nous pourrons aussi formuler des recommandations sur la façon dont Meta pourrait améliorer son approche en matière de modération du contenu. L’entreprise aura 60 jours pour répondre à ces recommandations.
L’entreprise nous a fait savoir que, étant donné que Threads se développe très rapidement, pendant une période de 12 mois et jusqu’à ce que l’application se stabilise, Meta pourra mettre en œuvre les recommandations sur ses politiques et sur leur mise en application issues des décisions sur Threads, mais pas les recommandations spécifiques au produit.
Transformer l’approche de Meta en matière de modération du contenu
Le bilan du Conseil sur Facebook et Instagram indique que nous pouvons également faire une différence importante sur Threads.
Par exemple, en réponse à nos recommandations, Meta a créé la fonctionnalité Statut du compte, qui vous indique quelles pénalités Meta a appliquées à votre compte et pourquoi. L’entreprise a créé de nouveaux classificateurs pour éviter que le contenu sensibilisant au cancer du sein soit automatiquement supprimé. Et elle met actuellement la dernière main sur une nouvelle approche systématique pour préserver les preuves potentielles d’atrocités et de graves violations des droits humains. Il ne s’agit que de quelques exemples de la façon dont le Conseil rend l’approche de Meta plus transparente, plus fondée sur des principes et plus internationale.
Le Conseil s’appuiera sur ses quatre années d’expérience pour examiner le contenu de Threads. Pendant cette période, notre approche a beaucoup évolué. L’année dernière, par exemple, nous y avons apporté des changements pour pouvoir traiter plus de cas plus rapidement. En 2023, nous avons pris des décisions importantes concernant des prisonniers de guerre, l’ancien premier ministre cambodgien Hun Sen et nos premiers cas accélérés sur la guerre Israël-Hamas. Nous avons également publié un avis consultatif en matière de politique au sujet des fausses informations sur le COVID-19. En 2024, nous avons continué sur cette lancée en publiant nos décisions sur des cas de négationnisme, de médias manipulés et de discours haineux envers des personnes transgenres. Bien qu’il reste encore beaucoup de travail à faire, nous continuerons d’encourager Meta à accorder un traitement équitable à toutes les personnes qui utilisent ses plateformes.
Et après ?
Lorsque nous sélectionnerons nos premiers cas standard sur le contenu de Threads, nous l’annoncerons sur notre site Web, et nous encouragerons le public à nous envoyer des commentaires. Nous publierons nos décisions finales sur le site Web du Conseil de surveillance.
Remarque : le Conseil de surveillance est une organisation indépendante qui examine les décisions de Meta de supprimer ou de laisser des contenus en ligne sur Facebook, Instagram et Threads dans un certain nombre de cas emblématiques. Il examine et, le cas échéant, annule les décisions de l’entreprise. Les décisions du Conseil sont contraignantes pour Meta. Le Conseil formule également des recommandations pour améliorer l’approche de Meta en matière de modération du contenu.