Publié
Référence à des personnes dangereuses désignées sous le terme « chahid »
Cet avis consultatif en matière de politique analyse l’approche que Meta adopte pour modérer le terme « chahid », ce qui soulève d’importantes questions sur l’impact de la politique relative aux personnes et organisations dangereuses sur la liberté d’expression.
Synthèse
Le Conseil estime que l’approche de Meta quant à la modération du contenu qui utilise le terme « chahid » pour évoquer des personnes désignées comme dangereuses restreint de façon considérable et disproportionnée la liberté d’expression. Meta considère que toutes les utilisations de « chahid » faisant référence à des personnes qu’elle a désignées comme « dangereuses » sont en infraction, et supprime le contenu concerné. D’après Meta, il est probable que « chahid » comptabilise plus de suppressions de contenus telles que définies par les Standards de la communauté que n’importe quel autre mot ou expression sur ses plateformes. Les actes de terrorisme ont de graves conséquences, car ils détruisent la vie de personnes innocentes, entravent les droits humains et nuisent au fonctionnement de nos sociétés. Néanmoins, toute limitation de la liberté d’expression visant à empêcher une telle violence doit être nécessaire et proportionnée, car une suppression illégitime d’un tel contenu peut s’avérer inefficace et même contre-productive.
Les recommandations du Conseil partent du constat que Meta doit prendre des mesures effectives afin de garantir que ces plateformes ne sont pas utilisées en vue d’inciter à la violence, ou de recruter des personnes pour la perpétrer. Les extrémistes utilisent parfois le terme « chahid » pour faire l’éloge ou glorifier les personnes ayant perdu la vie en commettant des actes de violence terroriste. La réponse de Meta à cette menace doit toutefois également observer l’ensemble des droits humains, notamment la liberté d’expression.
Le 7 octobre 2023, alors que le Conseil finalisait son avis consultatif en matière de politique, le Hamas (une organisation désignée de niveau 1 en vertu de la politique de Meta relative aux personnes et organisations dangereuses) a mené des attaques terroristes sans précédent contre Israël, qui ont fait environ 1 200 morts et 240 otages ( Ministère des Affaires étrangères, Gouvernement d’Israël). Des reportages ont indiqué qu’au 6 février 2024, au moins 30 des 136 otages présumés toujours aux mains du Hamas début janvier seraient mortes. Meta a immédiatement qualifié ces évènements d’attaque terroriste dans le cadre de sa politique relative aux personnes et organisations dangereuses. Israël a rapidement répondu à ces attaques en lançant une campagne militaire. Cette campagne militaire a tué plus de 30 000 personnes à Gaza au 4 mars (Bureau de la coordination des affaires humanitaires des Nations Unies, d’après les données fournies par le Ministère de la Santé à Gaza). Les rapports de janvier ont indiqué que 70 % des victimes seraient des femmes et des enfants.
Suite à ces évènements, le Conseil a interrompu la publication de son avis consultatif en matière de politique afin de s’assurer que ses recommandations répondaient à l’utilisation des plateformes de Meta et du terme « chahid » dans ce contexte. Ces recherches supplémentaires ont confirmé les recommandations du Conseil adressées à Meta sur la modération du terme « chahid », même lors d’évènements extrêmement préoccupants comme ceux-ci, et assureraient une meilleure observation de l’ensemble des droits humains dans la réponse de Meta face aux crises. Dans le même temps, le Conseil souligne que les politiques de Meta dans ce domaine sont globales et que leur impact dépasse largement ce conflit. Bien que reconnaissant l’importance des évènements survenus récemment en Israël et en Palestine, les recommandations du Conseil sont également globales et ne se limitent pas à un contexte en particulier.
Le Conseil estime que l’approche de Meta quant à la modération du terme « chahid » est trop large et restreint de façon disproportionnée la liberté d’expression et le discours civique. Par exemple, les publications sur la violence et les entités désignées peuvent faire l’objet de suppressions injustifiées. L’approche de Meta ne tient pas non plus compte des différentes significations de « chahid », qui la plupart du temps ne visent pas à glorifier ni à exprimer l’approbation, entraînant trop souvent la suppression de publications diffusées par des arabophones et locuteurs (souvent musulmans) d’autres langues, sans que cette suppression réponde à la politique sur les personnes et organisations dangereuses. Les politiques de Meta interdisent néanmoins, par exemple, la glorification, le soutien et la représentation de personnes, d’organisations et d’évènements désignés, ainsi que l’incitation à la violence. Ces politiques, lorsqu’elles sont correctement appliquées, atténuent les risques auxquels les plateformes de Meta sont exposées à des fins terroristes. Le Conseil recommande par conséquent à Meta de mettre fin à son interdiction généralisée de l’utilisation du terme « chahid » pour évoquer des personnes désignées comme dangereuses, et de modifier sa politique afin d’analyser le contenu utilisant ce terme en s’appuyant davantage sur le contexte.
Contexte
En février 2023, Meta a demandé au Conseil si elle doit continuer de supprimer le contenu utilisant le terme arabe « chahid » (« شهيد » en arabe), pour évoquer des personnes désignées en vertu de sa politique sur les personnes et organisations dangereuses. « Chahid » constitue également un emprunt, car de nombreuses langues en dehors de l’arabe ont « emprunté » ce terme d’origine arabe, y compris en adaptant son orthographe.
Selon l’entreprise, le terme « chahid » s’avère « honorifique », et est utilisé dans un certain nombre de cultures, religions et langues, pour désigner une personne décédée de façon inattendue, comme dans un accident, ou de façon honorable, comme à la guerre. L’entreprise reconnaît que ce terme revêt des « significations différentes » et que bien qu’il n’y ait « aucun équivalent direct en anglais », il pourrait se traduire par « martyr ». En partant du constat qu’« en anglais le mot « martyr » désigne une personne ayant souffert ou perdu la vie au nom d’une cause légitime et qu’il est connoté positivement », Meta déclare que « nous nous sommes appuyés sur cette utilisation pour classer ce terme [« chahid »] dans la catégorie des éloges en vertu de notre politique [sur les personnes et organisations dangereuses] ».
L’hypothèse de Meta selon laquelle la référence à une personne désignée comme « chahid » représentait toujours des « éloges » aux termes de la politique sur les personnes et organisations dangereuses a entraîné une interdiction généralisée. Meta a reconnu qu’en raison des différentes significations du terme elle « pouvait appliquer sa politique de façon excessive dans un grand nombre de discours dont l’objectif n’était pourtant pas de faire l’éloge d’une personne désignée, notamment parmi les arabophones ». Par ailleurs, Meta n’applique pas d’exception à sa politique sur les personnes et organisations dangereuses afin d’autoriser l’utilisation de « chahid » pour « informer, condamner ou discuter de façon neutre des entités désignées ». Cette situation s’est poursuivie après les dernières mises à jour de la politique réalisées en décembre 2023, qui interdisent à présent la « glorification » et les « références ambiguës », au lieu des « éloges » ; ce terme ayant été complètement supprimé.
Meta a entamé un processus de développement de sa politique en 2020 afin de réévaluer son approche quant au terme « chahid » en raison de ces préoccupations. Aucun consensus n’a cependant été atteint au sein de l’entreprise et aucune nouvelle approche n’a été convenue.
En sollicitant cet avis consultatif en matière de politique, Meta a présenté au Conseil trois options de politique possibles.
- Maintenir le statu quo.
- Autoriser l’utilisation de « chahid » en référence à des personnes désignées dans des publications qui observent les exceptions de l’interdiction liée aux « éloges » (par exemple, dans le cadre de reportages, discussions neutres ou condamnations), tant qu’elles ne contiennent pas d’autres éloges ni d’« éléments à caractère violent ». Parmi les exemples de ces éléments que Meta a proposés, on peut citer les représentations visuelles d’armes ou les références au langage militaire ou à la violence réelle.
- Autoriser l’utilisation de « chahid » pour évoquer des personnes désignées, tant qu’aucun autre éloge ou élément à caractère violent n’apparaît. Et ceci indépendamment du fait que le contenu relève de l’une des exceptions susmentionnées, contrairement à la deuxième option.
Le Conseil a considéré d’autres choix de politique possibles. Aux motifs énoncés dans l’avis consultatif en matière de politique, les recommandations du Conseil s’alignent étroitement sur la troisième option, bien que moins d’éléments à caractère violent soient adoptés par rapport à ce que Meta proposait dans sa demande, et qu’une application plus large soit requise pour les exceptions à la politique dans le cadre des reportages, discussions neutres et condamnations des entités désignées et de leurs actions.
Principaux résultats et recommandations
Le Conseil estime que l’approche actuelle de Meta quant au terme « chahid » évoquant des personnes désignées comme dangereuses est trop large, et restreint de façon considérable et disproportionnée la liberté d’expression.
Le terme « chahid » revêt une grande importance au niveau culturel et religieux. On l’utilise parfois pour faire l’éloge des personnes décédées en commettant des actes violents et même pour les « glorifier ». Mais il apparaît également souvent, même en référence à des personnes dangereuses, dans les reportages et les commentaires neutres, les discussions académiques, les débats sur les droits humains, et même de manière plus passive. Parmi ses autres significations, « chahid » est très utilisé pour désigner des personnes qui ont trouvé la mort en servant leur pays, leur cause, ou qui ont été des victimes inattendues d’actes de violence socio-politique ou d’une catastrophe naturelle. Les membres de certaines communautés musulmanes le portent en guise de prénom et de nom. Tout porte à croire que les nombreuses significations de « chahid » entraînent la suppression d’un grand nombre de contenus qui ne font pourtant pas l’éloge des terroristes ni de leurs violentes actions.
L’approche de Meta concernant la suppression de contenu au simple motif que « chahid » est mentionné en faisant référence à des personnes désignées ignore intentionnellement la complexité linguistique de ce terme ainsi que ses nombreuses utilisations, le traitant systématiquement et uniquement comme l’équivalent du mot « martyr ». Cela affecte considérablement la liberté d’expression et des médias, restreint indûment le discours civique et nuit gravement à l’égalité et à la non-discrimination. Cette application excessive affecte de manière disproportionnée les arabophones et les locuteurs d’autres langues qui empruntent à l’arabe le terme « chahid ». Dans le même temps, d’autres applications de la politique sur les personnes et organisations dangereuses permettraient toutefois à Meta d’améliorer sa valeur de sécurité et son objectif visant à écarter de ses plateformes les contenus glorifiant les terroristes. La politique actuelle s’avère donc disproportionnée et inutile.
Afin de faire correspondre plus étroitement ses politiques et ses pratiques de mise en application concernant le terme « chahid » avec ses standards relatifs aux droits humains, le Conseil émet les recommandations suivantes (voir section 6 pour les consulter dans leur intégralité) :
1. Meta ne doit plus supposer que le terme « chahid », utilisé pour évoquer une personne désignée ou des membres anonymes d’organisations désignées, est toujours en infraction et inéligible aux exceptions à la politique. Le contenu qui évoque une personne désignée sous le terme « chahid » doit être supprimé en tant que « référence ambiguë » dans deux situations uniquement. Tout d’abord, lorsqu’un ou plus des trois éléments à caractère violent apparaissent : une représentation visuelle d’un armement/arme, une déclaration d’intention ou un soutien pour utiliser ou porter un armement/arme, ou une référence à un évènement désigné. Ensuite, lorsque le contenu enfreint d’une autre manière les politiques de Meta (par exemple, en glorifiant ou en faisant référence à une personne désignée de façon ambiguë pour des raisons autres que l’utilisation de « chahid »). Dans ces deux cas, le contenu reste éligible aux exceptions liées aux « reportages, discussions neutres et condamnations ».
2. Pour clarifier l’interdiction relative aux « références ambiguës », Meta doit inclure plusieurs exemples de contenu en infraction, notamment une publication faisant référence à une personne désignée en tant que « chahid » associée à un ou plus des trois éléments à caractère violent indiqués dans la recommandation n° 1.
3. Les conseils internes sur la politique de Meta doivent également être mis à jour afin de préciser que les références aux personnes désignées comme « chahid » ne constituent pas une infraction sauf si elles sont accompagnées par des éléments à caractère violent, et que même lorsque ces éléments sont présents, le contenu peut toujours bénéficier des exceptions liées aux « reportages, discussions neutres ou aux condamnations ».
Si Meta accepte ces recommandations et les met en place, en vertu de ses règles actuelles, elle continuerait de supprimer le contenu qui « glorifie » des personnes désignées, caractérise leur violence ou leur haine comme un accomplissement, ou légitime ou défend leurs actes de violence ou de haine, ainsi que tout soutien ou représentation d’une entité dangereuse désignée. L’approche proposée par le Conseil sur la base de ces recommandations consiste à ce que Meta cesse de constamment considérer que « chahid » évoque une personne désignée comme étant en infraction, en supprimant le contenu uniquement lorsque d’autres infractions à la politique s’ajoutent (par exemple, la glorification) ou comme une référence « ambiguë » en raison d’éléments à caractère violent. Ce type de contenu doit demeurer éligible au nom des exceptions à la politique liées aux « reportages, discussions neutres et condamnations de personnes désignées ».
Le Conseil recommande également à Meta les actions suivantes :
4. Expliquer plus en détail la procédure de désignation des entités et des évènements en vertu de sa politique relative aux personnes et organisations dangereuses afin de rendre cette liste plus transparente. Meta doit également publier des informations agrégées sur le nombre total d’entités dans chaque niveau de sa liste de désignation, ainsi que le nombre d’entités ajoutées et supprimées l’année passée.
5. Introduire une procédure claire et efficace pour mener des audits réguliers sur les désignations et supprimer les critères publiés qui ne sont plus satisfaisants afin de garantir que la liste des personnes et organisations dangereuses désignées est bien à jour, et qu’elle n’inclut aucune organisation, personne et évènement ne répondant plus à la définition de la désignation de Meta.
6. Expliquer les méthodes qu’elle utilise pour évaluer la précision de l’examen manuel et les performances des systèmes automatisés dans la mise en application de sa politique sur les personnes et organisations dangereuses. Par ailleurs, Meta doit régulièrement communiquer les conclusions des évaluations de performances des classificateurs utilisés pour appliquer cette politique, en présentant les résultats de façon qu’ils soient comparables entre les langues et/ou les régions.
7. Détailler l’utilisation des classificateurs pour générer des prévisions d’infractions à la politique et la définition des conditions minimales de Meta pour savoir si elle doit ne prendre aucune mesure, faire remonter le contenu en vue d’un examen manuel ou le supprimer. Elle doit fournir ces informations dans son Espace modération afin d’informer les parties prenantes.
Avis consultatif en matière de politique dans son intégralité
1. Requête de Meta
I. La requête d’avis consultatif en matière de politique
1. Dans sa requête (disponible en anglais et en arabe), Meta a demandé au Conseil si elle doit continuer à supprimer tout contenu dans lequel le terme « chahid » (شهيد) (et ses formes au singulier/pluriel, notamment les emprunts en arabe et d’autres langues) est employé pour évoquer des individus désignés comme dangereux, conformément à sa politique sur les personnes et organisations dangereuses, ou si elle doit adopter une approche différente, plus conforme aux valeurs de l’entreprise et à ses responsabilités en matière de droits humains. Meta a également sollicité des conseils sur des problèmes de contenu similaires qui pourraient survenir à l’avenir.
II. Approche de Meta
2. La politique de Meta sur les personnes et organisations dangereuses interdisait précédemment les « éloges, le soutien substantiel ou la représentation d’entités et de personnes désignées » et d’« évènements violents en infraction » désignés. Le 29 décembre 2023, Meta a mis à jour sa politique, en supprimant l’interdiction des éloges et en ajoutant des interdictions relatives à la « glorification » et aux « références ambiguës ». Le Conseil a étendu ses considérations afin d’évaluer tout impact susceptible d’affecter ses conclusions et recommandations suite à ces modifications de la politique.
3. Cette demande d’avis consultatif en matière de politique portait sur l’interdiction des éloges des personnes désignées, pas sur les interdictions parallèles liées au soutien substantiel ou à la représentation. En les comparant à la représentation et au soutien substantiel, Meta a estimé que les « éloges » constituaient l’infraction la moins grave. Elle réserve le « niveau 1 » pour les entités les plus dangereuses, notamment les organisations terroristes, haineuses et criminelles. Lorsque Meta désigne un « évènement violent en infraction », ses auteurs sont également classés comme des personnes dangereuses de niveau 1, et leur glorification (anciennement appelée « éloges ») est donc interdite. Les évènements désignés incluent les « attaques terroristes, les évènements de haine, la violence faisant plusieurs victimes ou la tentative de violence faisant plusieurs victimes, les meurtres en série ou les crimes de haine ». Bien que Meta contrôle sa propre liste d’entités désignées, qu’elle n’a pas rendu publique, les désignations reposent en partie sur les listes de désignation du gouvernement américain (en réalité la liste de désignation de Meta sera au moins aussi étendue que les listes du gouvernement américain sur lesquelles elle s’appuie). Les Standards de la communauté stipulent que les entités de niveau 1 incluent les « responsables du trafic de stupéfiants spécifiquement désignés », les « organisations terroristes étrangères » et les « terroristes internationaux spécifiquement désignés ». Ces listes du gouvernement américain sont mises à la disposition du public ici, ici et ici respectivement.
4. Avant la mise à jour de la politique survenue le 29 décembre 2023, la définition de Meta des « éloges » incluait l’évocation « en termes positifs d’une entité ou d’un évènement désignés », l’expression d’un « sentiment d’accomplissement » accordé à une entité désignée, la légitimation de la « cause d’une entité désignée en affirmant que son comportement haineux, violent ou criminel est légalement, moralement ou autrement justifié ou acceptable » et l’alignement « idéologique sur une entité ou un évènement désignés ». Cette définition, ou série d’exemples, a été intégrée à la politique afin d’en améliorer la précision suite à une recommandation du Conseil de surveillance dans l’un de nos premiers cas (recommandation n° 2 du cas sur la Citation nazie). Une fois la politique mise à jour en décembre 2023, la « glorification » est définie comme la « légitimation ou la défense d’actes de violence ou de haine perpétrés par une entité désignée en affirmant que ces actes sont justifiés moralement, politiquement, logiquement ou autrement, ce qui les rend acceptables ou raisonnables » ou la « caractérisation ou la célébration de la violence ou de la haine d’une entité désignée en tant qu’accomplissement ou réalisation ». Plus largement, Meta énonce dans sa politique mise à jour qu’elle « supprimera les références ambiguës ou sans contexte si l’utilisateur n’a pas clairement indiqué son intention ». Il est précisé dans la politique que cela inclura « l’humour équivoque » et les « références positives ou sans légende qui ne glorifient pas les actes de violence ou de haine perpétrés par l’entité désignée ». La politique n’apporte cependant pas d’exemples sur le type de publications susceptibles d’enfreindre cette règle. Meta a informé le Conseil qu’elle continue de supprimer tous les contenus qui évoquent des personnes désignées comme « chahid ». Pour de telles références, l’entreprise suppose que « chahid » constitue une infraction, indépendamment du contexte, entraînant surtout une interdiction généralisée du terme lorsqu’il est utilisé en vue d’évoquer une personne désignée. On peut en partie illustrer la portée de cette interdiction en consultant les listes de désignation américaines susmentionnées, car la politique de Meta interdit d’évoquer toutes les personnes (et membres d’organisations) sur sa propre liste dérivée sous le terme « chahid » (ou toute autre traduction du mot « martyr ». Cela inclut des entités partout dans le monde, et ne se limite pas aux organisations terroristes ni aux organisations porteuses d’une idéologie en particulier.
5. L’entreprise définit le mot « chahid » comme un terme « honorifique », employé par de nombreuses communautés, au-delà des cultures, des religions et des langues. L’entreprise a reconnu qu’il existe « plusieurs significations » et qu’il était « employé pour décrire une personne qui meurt de manière inattendue ou prématurée, et dans certains cas, qu’il fait référence à une mort digne, par exemple, suite à un accident, ou lors d’un conflit ou d’une guerre. » Meta a déclaré que, bien qu’il « n’existe aucun équivalent direct du terme en anglais », sa traduction courante est « martyr ». En envoyant sa requête au Conseil, avant de modifier sa politique en décembre 2023, Meta a déclaré ce qui suit : « nous supposons que ce terme signifie « martyr » et « nous nous sommes appuyés sur cette utilisation pour le classer dans la catégorie des éloges en vertu de notre politique [sur les personnes et organisations dangereuses] ». Cette règle n’a été évoquée dans les Standards de la communauté publics que sous la forme d’exemples de phrases qui enfreindraient l’interdiction des éloges. Dans d’autres exemples, Meta a inclus une phrase qui qualifiait un terroriste américain condamné de « martyr ». Dans la version arabe de sa politique, Meta a utilisé le même exemple, en traduisant le terme « martyr » par « chahid ». L’exemple « martyr » / « chahid » a été supprimé lorsque les Standards de la communauté publics ont été mis à jour en décembre 2023, bien que Meta ait informé le Conseil que ce terme constitue toujours une infraction et que les équipes d’examen ont pour consigne de le supprimer.
6. Meta n’applique pas les exceptions à la politique sur les personnes et organisations dangereuses à l’utilisation de « chahid » lorsqu’il fait référence à une personne désignée. Ces exceptions autorisent par ailleurs les « reportages, les discussions neutres ou les condamnations » de personnes désignées. La suppression du contenu qui utilise le terme « chahid » comme un « éloge » d’une personne désignée entraînerait de graves « suspensions » contre les utilisateurs, sachant que l’accumulation de graves suspensions donne plus rapidement lieu à des sanctions, telles que la suspension ou la désactivation d’un compte ou d’une page. Aucune explication du caractère inapplicable des exceptions à la règle liée au terme « chahid » n’apparaît dans les Standards de la communauté publics.
7. Meta a expliqué que le traitement qu’elle réserve à « chahid » améliore sa valeur de promotion de la sécurité, car elle estime qu’un tel contenu pourrait « exposer ses utilisateurs à un risque de préjudice hors ligne ». Dans le même temps, Meta a reconnu que le mot anglais « martyr » n’est pas une traduction appropriée de « chahid ». Compte tenu des différentes significations de « chahid » et des difficultés à prendre en compte le contexte et les intentions des utilisateurs à grande échelle, Meta a reconnu avoir supprimé des discours « ne constituant pas un risque de préjudice » et « ne visant pas à faire l’éloge d’une personne désignée, notamment parmi les arabophones ». Par exemple, la suppression du contenu utilisant « chahid » dans les reportages ou les discussions neutres sur le décès prématuré d’une personne désignée, plutôt que pour en faire l’éloge (ou la glorifier), elle ou sa conduite.
8. Le 29 août 2023, Meta a mis à jour sa tolérance sur la politique relative aux personnes et organisations dangereuses afin de définir les « reportages », les « discussions neutres » et les « condamnations », ainsi que pour illustrer chaque exception. Dans le même temps, Meta a étendu sa définition de cette tolérance afin de reconnaître que les utilisateurs peuvent évoquer des entités désignées « dans un contexte de discours social et politique ». Tous les exemples illustrant le contenu autorisé ont été supprimés dans le cadre de la mise à jour de la politique de décembre 2023, bien que la tolérance reste en vigueur. Les exemples ont été rétablis lorsque la politique a été mise à jour le 8 février 2024. Toutefois, ni la mise à jour de décembre 2023 ni celle de février 2024 ne stipulent clairement que les références ambiguës ou sans contexte à des personnes ou organisations dangereuses ne bénéficieront pas de ces exceptions, car elles se caractérisent par une intention qui n’est pas clairement démontrée dans la publication elle-même.
9. Meta a entamé un processus de développement de sa politique en 2020 afin de réévaluer son approche quant au terme « chahid ». Il comprenait une étude de recherche et une consultation des parties prenantes. De cette consultation, il en ressort principalement que la signification du mot « chahid » dépend du contexte, et « que dans certains cas, il n’est plus connoté et n’est plus associé à l’idée d’éloge ». Dans le même temps, il existe sans aucun doute des instances où « chahid » est utilisé et compris comme l’éloge d’une personne désignée. Il est particulièrement difficile d’identifier les différences d’intention dans une publication, surtout à grande échelle. En menant ce processus d’examen, comme elle l’a souligné dans sa requête, Meta a identifié deux options de politique pouvant remplacer le traitement qu’elle accorde actuellement au terme « chahid ». Cependant, les parties prenantes ne sont pas parvenues à s’accorder sur l’option la plus adaptée et Meta a donc abandonné l’idée d’adopter une nouvelle approche. L’entreprise met l’accent sur le fait qu’en raison du volume de contenus publiés sur ses plateformes, l’une des préoccupations majeures est de savoir si la mise en application d’une politique mise à jour est efficace à grande échelle.
III. Modifications de la politique que Meta a demandé au Conseil d’envisager
10. Meta a demandé au Conseil d’envisager les options de politique suivantes, avant qu’elle remplace l’interdiction de l’« éloge » par une interdiction de la « glorification » et des « références ambiguës ».
1) Continuer de supprimer tout contenu dans lequel le mot « chahid » fait référence à une personne désignée comme dangereuse selon la politique sur les personnes et organisations dangereuses.
2) Autoriser les contenus dans lesquels une personne désignée est qualifiée de « chahid », lorsque les conditions suivantes sont remplies : (i) le terme est utilisé dans un contexte autorisé tel que défini dans la politique sur les personnes et organisations dangereuses (par exemple, dans des condamnations, des informations d’actualité, des débats académiques, des discours sociaux et politiques) ; (ii) il n’y a pas d’éloge ou de représentation supplémentaire d’une personne désignée, ni de soutien substantiel à son égard (par exemple, la publication ne fait pas explicitement l’éloge du responsable d’une attaque terroriste ou ne justifie pas son acte de violence) ; et (iii) le contenu ne présente aucun élément à caractère violent. Les éléments, tels que désignés par Meta, sont : une représentation visuelle d’un armement ; une déclaration d’intention ou un soutien à l’utilisation ou au port d’un armement/d’une arme ; une référence au langage militaire ; une référence à un incendie volontaire, à un pillage ou à d’autres destructions de biens ; une référence à des incidents violents réels et connus ; et des déclarations d’intention, des appels à l’action, représentant, soutenant ou défendant la violence contre des personnes.
3) Supprimer le contenu dans lequel le mot « chahid » évoque une personne désignée comme dangereuse, conformément à la politique de Meta sur les personnes et organisations dangereuses, uniquement en cas d’éloge, de représentation supplémentaire ou de soutien substantiel à son égard, ou d’éléments présentant un caractère violent. Ces éléments sont les mêmes que ceux indiqués dans l’option n° 2.
11. L’objectif des options n° 2 et 3 est de parvenir à une compréhension plus contextualisée de l’utilisation de « chahid », et ne semble pas beaucoup diverger dans les résultats qu’elles visent. Ces deux options semblent encore plus proches dans la mesure où Meta a étendu la portée des exceptions contextualisées qu’elle applique généralement à son interdiction des éloges (maintenant « glorification ») (voir paragraphe 8 ci-dessus). Tel que le Conseil le comprend, après avoir demandé à Meta d’expliquer les différences d’application et le résultat de ces deux options, les différences fondamentales résident dans le fait que la deuxième option obligerait Meta à chercher et à confirmer que l’une des exceptions (liées aux reportages, discussions neutres et condamnations) s’applique au contenu, tandis que la troisième option ignorerait cette étape et se contenterait d’évaluer si la publication exprime d’autres éloges (maintenant « glorification » ou « références ambiguës ») ou l’un des six éléments à caractère violent listés. En ce qui concerne l’ensemble des options proposées par Meta, la politique s’appliquerait de sorte que tout contenu désignant ou représentant des personnes dangereuses désignées dont l’intention est ambiguë ou équivoque soit traité par défaut comme étant en infraction, ce qui signifie qu’il incomberait à l’utilisateur de préciser son intention. Les modifications de décembre 2023 intègrent cette application dans le Standard de la communauté sur les personnes et organisations dangereuses, en expliquant qu’en ce qui concerne les entités et les évènements désignés de niveau 1 la politique interdit les « références ambiguës et sans contexte », qui incluent « l’humour équivoque, les références positives ou sans légende qui ne glorifient pas les actes de violence ou de haine perpétrés par l’entité désignée ». Par exemple, la photo d’une personne désignée, sans aucun texte ni commentaire, serait supprimée en vertu de la politique interdisant les références ambiguës, car l’intention de l’utilisateur n’était pas suffisamment explicite.
12. Bien que le Conseil ait tenu compte des options présentées par Meta, il en a également envisagé d’autres et pris en considération les modifications opérées sur la politique en décembre 2023. En outre, sachant que Meta ait directement demandé au Conseil des recommandations sur sa politique en vue de résoudre des problèmes similaires à l’avenir, le Conseil a évalué les problèmes associés concernant les pratiques de Meta en matière de mise en application et de transparence dans les domaines mis en évidence dans cet avis consultatif en matière de politique, mais qui affectent également la liberté d’expression et les autres droits humains plus largement.
IV. Questions que le Conseil a posées à Meta
13. Le Conseil a posé 41 questions par écrit à Meta. Les questions portaient sur la justification de la Politique qui sous-tend le Standard de la communauté sur les personnes et organisations dangereuses ; les preuves de préjudice susceptible de survenir en cas d’autorisation des « éloges » sur les plateformes ; les processus de mise en application manuels et automatisés ; le processus de désignation et la liste des entités désignées ; le système de suspensions de Meta et les implications pratiques de l’adoption de l’option n° 2 ou 3 de la politique. En octobre 2023, le Conseil a posé des questions de suivi relatives aux tendances du contenu pour le terme « chahid » en lien avec les attaques terroristes du 7 octobre contre Israël et la réponse militaire en cours donnée par le pays, et à l’éventualité que l’analyse menée par Meta sur les options de politique qu’elle a présentées au Conseil dans sa requête ait évolué en raison de la crise actuelle. Le Conseil a posé trois autres questions au sujet de la mise à jour de la politique de Meta le 29 décembre 2023. Au total, Meta a répondu à 40 questions et à une question partiellement. Meta a uniquement communiqué au Conseil la liste des entités désignées de niveau 1, mais pas celle des entités de niveaux 2 et 3, en expliquant que les « éloges » ne sont interdits que dans le cadre du niveau 1
2. Engagement des parties prenantes
14. Le Conseil de surveillance a reçu 101 commentaires publics répondant aux critères de soumission. Au total, 72 commentaires ont été soumis par les États-Unis et le Canada ; 15 par le Moyen-Orient et l’Afrique du Nord ; 8 par l’Europe ; 3 par l’Asie-Pacifique et l’Océanie ; 2 par l’Amérique latine et les Caraïbes ; et un par l’Asie centrale et du Sud. Tous ont été reçus avant le 10 avril 2023. Pour consulter les commentaires publics soumis accompagnés d’un consentement à la publication, cliquez ici.
15. Les soumissions portaient sur plusieurs problématiques. De nombreux commentaires ont expliqué les différentes significations de « chahid » et, par conséquent, l’impact négatif du traitement par défaut que Meta réserve à ce terme désigné comme un « éloge » sur la liberté d’expression, notamment sur le discours politique et la documentation sur les droits humains. Ils ont également évoqué leurs inquiétudes sur l’utilisation de l’automatisation dans la mise en application, ainsi que la liste de désignation de Meta, les problèmes de transparence et les préjugés pouvant survenir dans le processus de désignation. D’autres soumissions ont exprimé des craintes quant au fait que les modifications opérées sur la politique puissent normaliser les groupes terroristes et aggraver la violence, surtout en Israël et dans les Territoires palestiniens occupés.
16. Le Conseil a organisé trois tables rondes régionales réunissant des parties prenantes pour l’Asie du Sud-Ouest et l’Afrique du Nord, l’Afrique subsaharienne et l’Asie du Sud-Est. En outre, deux tables rondes thématiques ont été menées, une sur l’automatisation de la modération de contenu et une sur la lutte contre le terrorisme et les droits humains. Les participants ont confirmé que « chahid » revêt plusieurs significations. « Martyr » est une signification possible, notamment pour le décès de personnes ayant commis des actes de terrorisme, mais « chahid » est également souvent utilisé dans d’autres contextes, comme pour décrire les victimes de ces violentes attaques. De nombreux participants, y compris les membres des communautés concernées, les experts de la lutte contre le terrorisme et de la modération de contenu, ont exprimé des inquiétudes quant aux préjugés de la politique et ont évoqué la façon dont elle nuit à la liberté d’expression, notamment celle des arabophones et des locuteurs d’autres communautés qui utilisent le terme « chahid ». Parmi les autres sujets évoqués, on peut citer le manque de preuves du lien de cause à effet entre l’utilisation de « chahid » en référence à des personnes désignées et les préjudices réels, ce que les experts de la sécurité nationale et de la lutte contre le terrorisme ont également mis en avant. De la même manière, certains participants se sont dit préoccupés par le fait qu’une absence de modération du terme puisse favoriser la normalisation des personnes et des organisations désignées, qui pourraient utiliser les réseaux sociaux à des fins de recrutement et de soutien substantiel. D’autres participants ont évoqué des inquiétudes quant à la qualité de l’automatisation sur laquelle Meta s’appuie pour modérer le contenu qui utilise ce terme et ont appelé à améliorer la transparence de son utilisation, ainsi que de la liste de Meta des entités désignées et de ses processus de désignation.
17. Pour consulter un rapport sur nos tables rondes relatives à l’engagement des parties prenantes, veuillez cliquer ici (pour la version arabe, veuillez cliquer ici).
3. Champ d’application et autorité du Conseil de surveillance
18. Meta peut demander au Conseil les avis consultatifs en matière de politique (article 3, section 7.3 de la Charte), et celui-ci peut, à son entière discrétion, accepter ou refuser les requêtes de Meta (article 2, section 2.1.3 des statuts). Ces avis revêtent un caractère consultatif (article 3, section 7.3 de la Charte). Meta est tenue de répondre à cet avis dans les 60 jours à compter de la date de publication (article 2, section 2.3.2 des statuts). Le Conseil surveille la mise en application des recommandations que Meta s’est engagée à suivre et peut assurer le suivi de toute recommandation antérieure dans ses décisions sur les cas.
4. Sources d’autorité et conseils
I. Anciennes recommandations du Conseil de surveillance
19. Dans des cas précédents, le Conseil a recommandé à Meta de préciser et de restreindre la portée de sa politique sur les personnes et organisations dangereuses, et d’améliorer le processus et la transparence en matière d’application de la politique.
20. Eu égard à la clarification de la politique et à la limitation de sa portée, le Conseil a recommandé à Meta ce qui suit :
- Restreindre la définition des « éloges » dans les conseils relatifs aux questions déjà posées pour les équipes d’examen (recommandation n° 3 du cas sur la Mention des talibans dans les informations d’actualité).
- Réviser ses conseils internes afin d’indiquer clairement que l’autorisation d’« informer » de la politique relative aux personnes et organisations dangereuses permet de faire des déclarations positives sur des entités désignées dans le cadre de l’information, et comment distinguer cela des « éloges » interdits (recommandation n° 4 du cas sur la Mention des talibans dans les informations d’actualité).
- Ajouter des critères et des exemples concrets à sa politique afin de permettre aux utilisateurs de mieux comprendre les exceptions accordées en cas de discussions neutres, de condamnation et de reportages (recommandation n° 1 du cas sur la Publication partagée d’Al Jazeera).
- Mettre à jour la justification de la Politique afin qu’elle tienne compte du fait que le respect de la liberté d’expression et des autres droits humains peut améliorer la valeur de sécurité de Meta et qu’elle définisse plus en détail les « préjudices réels » que la politique vise à empêcher et à arrêter en cas de répression contre la valeur d’expression (recommandation n° 4 du cas sur l’Isolement d’Öcalan).
- Expliquer comment les utilisateurs peuvent préciser leur intention dans leurs publications, afin qu’elles puissent bénéficier des exceptions à la politique (recommandation n° 6 du cas sur l’Isolement d’Öcalan).
- Expliquer et fournir des exemples pour l’application des termes clés dans la politique sur les personnes et organisations dangereuses, notamment la signification d’« éloge », et apporter des conseils plus clairs aux utilisateurs pour bien montrer leur intention (recommandation n° 2 du cas sur la Citation nazie).
21. En ce qui concerne le système de suspensions de Meta, le Conseil lui a recommandé ce qui suit :
- Expliquer sa procédure de suspensions et de sanctions visant à restreindre des profils, des pages, des groupes et des comptes sur Facebook et Instagram de manière claire, exhaustive et accessible (recommandation n° 15 du cas sur la Suspension de l’ancien président américain Trump).
- Rendre plus compréhensible et accessible son explication publique relative à son système de suspensions en deux étapes, en fournissant des éléments de contexte supplémentaires sur les « suspensions graves » (recommandation n° 2 du cas sur la Mention des talibans dans les informations d’actualité).
- Fournir aux utilisateurs des informations accessibles sur le nombre d’infractions, de suspensions et de sanctions qui leur ont été infligés, ainsi que sur les conséquences qui découleront de futures infractions (recommandation n° 16 du cas sur la Suspension de l’ancien président américain Trump).
22. En ce qui concerne la transparence, le Conseil a recommandé à Meta ce qui suit :
- Mettre à la disposition du public sa liste des entités désignées, ou au moins fournir des exemples les illustrant (recommandation n° 3 du cas sur la Citation nazie).
- Améliorer ses rapports de mise en application en indiquant le nombre de restrictions de profil, de page et de compte (en plus du nombre de décisions de suppression de contenu), avec des informations réparties par région et par pays (recommandation n° 17 du cas sur la Suspension de l’ancien président américain Trump).
- Inclure des informations plus complètes sur les taux d’erreur dans l’application des règles relatives aux « éloges » et au « soutien » envers des personnes et organisations dangereuses, réparties par région et par langue (recommandation n° 12 du cas sur l’Isolement d’Öcalan).
- Communiquer davantage d’informations au public sur les taux d’erreur et les répartir par pays et par langue pour chaque Standard de la communauté (recommandation n° 3 du cas sur l’Inquiétude pendjabie concernant le RSS en Inde).
23. En ce qui concerne l’automatisation, le Conseil a recommandé à Meta ce qui suit :
- Informer les utilisateurs quand l’automatisation est utilisée pour appliquer des mesures de modération contre leur contenu, y compris en leur fournissant des descriptions accessibles de ce que cela signifie (recommandation n° 3 du cas sur les Symptômes du cancer du sein et nudité).
- Élargir les rapports de transparence pour dévoiler des données sur le nombre de décisions de suppression automatisées par Standard de la communauté et sur la proportion de ces décisions qui ont dû être annulées à la suite d’un examen manuel » (recommandation n° 6 du cas sur les Symptômes du cancer du sein et nudité).
- Publier dans son rapport de transparence les taux d’erreur pour les contenus introduits par erreur dans les banques des Services de mise en correspondance du contenu multimédia, répartis par politique de contenu. Ce rapport devrait inclure des informations sur la manière dont le contenu entre dans les banques et les efforts de l’entreprise pour réduire les erreurs dans le processus (recommandation n° 3 du cas sur le Dessin animé sur la police en Colombie).
- Expliquer au public le fonctionnement de la hiérarchisation automatique et la fermeture des appels (recommandation n° 7 du cas sur le Slogan de protestation en Iran).
24. Pour consulter le statut de mise en application de ces précédentes recommandations lors de la finalisation de cet avis, veuillez cliquer ici (pour la version en arabe, veuillez cliquer ici).
II. Responsabilités de Meta en matière de valeurs et de droits humains
25. L’analyse et les recommandations apportées par le Conseil dans cet avis consultatif en matière de politique ont tenu compte des valeurs de Meta et de ses responsabilités en matière de droits humains.
26. Meta décrit la liberté d’expression comme une valeur « fondamentale », et fait remarquer qu’elle peut être limitée au service de quatre autres valeurs, la plus importante dans cet avis étant la sécurité. Pour préserver la valeur de Meta appelée « sécurité », Meta « supprime les contenus susceptibles de menacer la sécurité physique des personnes ». Elle ne permet pas non plus d’autoriser « les formes d’expression menaçantes », car elles « peuvent intimider les autres personnes, les exclure ou les réduire au silence ».
27. Le 16 mars 2021, Meta a annoncé sa Politique d’entreprise en matière de droits humains, dans laquelle elle souligne son engagement à respecter les droits conformément aux principes directeurs des Nations Unies relatifs aux entreprises et aux droits humains (PDNU). Les PDNU, soutenus par le Conseil des droits humains des Nations Unies en 2011, établissent un cadre de travail volontaire pour les responsabilités des entreprises privées en matière de droits humains. Cette responsabilité signifie, entre autres choses, que les entreprises « doivent éviter de porter atteinte aux droits humains d’autrui et doivent remédier aux effets négatifs sur les droits humains dans lesquels elles sont impliquées » (principe 11 des PDNU). Les entreprises sont censées : « (a) éviter de causer ou de contribuer à des impacts négatifs sur les droits humains par leurs propres activités, et traiter ces impacts lorsqu’ils se produisent ; (b) chercher à prévenir ou à atténuer les impacts négatifs sur les droits humains qui sont directement liés à leurs opérations, produits ou services par leurs relations d’affaires, même si elles n’ont pas contribué à ces impacts » (principe 13 des PDNU).
28. Comme nous l’avons vu dans la requête de Meta auprès du Conseil, ses pratiques de modération de contenu peuvent nuire au droit à la liberté d’expression. L’article 19, paragraphe 2 du Pacte international relatif aux droits civils et politiques (PIDCP) prévoit une protection plus large de ce droit, compte tenu de son importance pour le discours politique, et le Comité des droits de l’homme a remarqué qu’il protège également les formes d’expression susceptibles d’être particulièrement offensantes( observation générale 34, paragraphes 11, 13 et 38). Lorsque des limitations de la liberté d’expression sont imposées par un État, elles doivent remplir des critères de légalité, d’objectif légitime, et de nécessité et de proportionnalité (article 19, paragraphe 3 du PIDCP). Ces exigences sont souvent reprises sous l’intitulé « test tripartite ». Le Conseil utilise ce cadre pour interpréter les engagements volontaires de Meta en matière de droits humains, à la fois pour la décision relative au contenu individuel en cours d’examen et l’approche plus large de Meta en matière de gouvernance du contenu. Comme l’a déclaré le Rapporteur spécial sur la liberté d’opinion et d’expression en disant que même si « les entreprises ne sont pas soumises aux mêmes devoirs que les gouvernements, leur influence est néanmoins telle qu’elle doit les inciter à se poser les mêmes questions qu’eux quant à la protection de la liberté d’expression de leurs utilisateurs » (rapport A/74/486, paragraphe 41).
29. Le droit à la liberté d’expression est garanti de la même manière à toutes les personnes. Toute restriction de ce droit ne saurait être discriminatoire, notamment sur la base de la religion ou de la croyance, de la langue parlée ou de l’origine nationale (articles 2 et 26 du PIDCP).
Légalité (clarté et accessibilité des règles)
30. Toute restriction à la liberté d’expression doit être accessible et suffisamment claire, dans sa portée, sa signification et ses effets, pour indiquer aux utilisateurs et aux équipes d’examen de contenu quels sont les contenus autorisés et quels sont ceux qui ne le sont pas. Le manque de clarté ou de précision peut conduire à une application incohérente et arbitraire des règles (rapport du Rapporteur spécial des Nations Unies A/HRC/38/35, paragraphe 46). Le Conseil a déjà émis des critiques sur le manque de clarté de la politique sur les personnes et organisations dangereuses et a présenté à Meta des recommandations afin de l’améliorer (recommandations n° 4 et 6 du cas sur l’Isolement d’Öcalan ; recommandation n° 1 du cas sur la Publication partagée d’Al Jazeera ; recommandations n° 3 et 4 du cas sur la Mention des talibans dans les informations d’actualité. Meta a ensuite mis en place les recommandations du Conseil afin de clarifier sa définition des éloges.
31. La mise à jour réalisée par Meta en décembre 2023 sur sa politique relative aux personnes et organisations dangereuses suscite cependant de nouvelles inquiétudes en matière de légalité. Bien que Meta fournisse des exemples de publications qui enfreignent l’interdiction de la « représentation », du « soutien » et de la « glorification », elle n’en apporte aucun concernant la violation des « références ambiguës ». Les recommandations du Conseil dans cet avis consultatif en matière de politique visent à rendre les règles de Meta plus claires et accessibles.
Objectif légitime
32. L’article 19, paragraphe 3 du PIDCP stipule que la restriction de la liberté d’expression doit poursuivre un objectif légitime, qui inclut la protection des droits d’autrui ainsi que des intérêts sociétaux plus larges, tels que la sécurité nationale (voir également l’observation générale 34, paragraphes 21 et 30). La justification de la Politique de Meta relative au Standard de la communauté sur les personnes et organisations dangereuses explique qu’elle cherche à « prévenir et à arrêter les préjudices réels », ce que le Conseil a jugé, dans plusieurs cas, conforme à l’objectif légitime de protéger les droits d’autrui, y compris le droit à la vie (article 6 du PIDCP). Le Conseil a par ailleurs déjà reconnu que les éloges envers les entités désignées peuvent exposer les droits d’autrui à des risques de préjudice et que les initiatives visant à les atténuer en interdisant les éloges dans le Standard de la communauté sur les personnes et organisations dangereuses constituent un objectif légitime ( Mention des talibans dans les informations d’actualité).
Proportionnalité et nécessité
33. Toutes les restrictions de la liberté d’expression « doivent être appropriées pour remplir leur fonction de protection, elles doivent constituer le moyen le moins perturbateur parmi ceux qui pourraient permettre d’obtenir le résultat recherché et elles doivent être proportionnées à l’intérêt à protéger » (observation générale 34, paragraphe 34).
34. La résolution 1624 du Conseil de sécurité des Nations Unies (2005) appelle les États, dans la mesure où cela s’avère nécessaire et approprié, et conformément à leurs obligations en vertu du droit international, à « interdire légalement l’incitation à commettre des actes terroristes » (paragraphe 1a), et des résolutions ultérieures ont exprimé des inquiétudes quant à l’utilisation de l’Internet par des organisations terroristes (résolution 2178 du Conseil de sécurité des Nations Unies (2014) et résolution 2396 (2017)). Bien que ces résolutions réaffirment que les États doivent répondre et empêcher le terrorisme conformément à leurs obligations en vertu du droit international en matière de droits humains, le Rapporteur spécial sur la promotion et la protection des droits de l’homme et des libertés fondamentales dans la lutte antiterroriste s’est dit préoccupé par le manque de précision des lois destinées à appliquer leurs obligations, notamment celles qui concernent l’expression en ligne, mais également le fait qu’elles soient axées sur le contenu du discours plutôt que sur l’intention de l’utilisateur ou les conséquences de ce discours sur autrui (rapport A/HRC/40/52, paragraphe 37). Le Rapporteur spécial a conclu que la criminalisation de la propagande terroriste « requiert une probabilité raisonnable qu’elle réussisse à inciter à la commission d’un acte terroriste et que puisse donc être établi un certain lien de causalité ou le risque réel que l’infraction soit commise » ( ibid.). La déclaration conjointe sur l’Internet et les mesures de lutte contre le terrorisme du Rapporteur spécial sur la liberté d’expression, du Représentant de l’OSCE sur la liberté d’expression et du Rapporteur spécial de l’OEA sur la liberté d’expression, du 21 décembre 2005, déclare qu’en l’absence de preuves évidentes que le discours concerné constitue un appel direct et intentionnel à commettre des actes terroristes, et aggrave directement la probabilité que de tels actes surviennent, un État ne peut restreindre un discours et le sanctionner en prenant des mesures punitives (p. 39). Le Rapporteur spécial sur la liberté d’expression a également établi une condition minimale élevée dans le rapport A/HRC/17/27 (16 mai 2011, paragraphe 36), en affirmant qu’il convient de limiter la liberté d’expression à des fins de sécurité nationale et de lutte contre le terrorisme exclusivement lorsque « a) l’expression a pour but d’inciter à la violence imminente ; b) elle est susceptible d’inciter à une telle violence ; et c) il y a un lien direct et immédiat entre l’expression et des actes potentiels de violence ou la survenance d’une telle violence ». D’après le Comité des droits de l’homme, lorsque les mesures de lutte contre le terrorisme interdisent certains discours, les termes tels que « encouragement », « glorification » et « éloges » doivent être « précisément définis » et ne doivent pas « indûment restreindre le rôle fondamental des médias à informer le public sur les actes de terrorisme » ( observation générale 34, paragraphes 30 et 46).
35. Bien que ces principes et standards constituent un point de départ important pour l’analyse du Conseil, les obligations et limitations imposées par le droit international aux États en matière de droits humains ne sont pas identiques aux responsabilités et à la discrétion qui incombent à une entreprise privée dans ce domaine. L’application de sanctions pénales par un État n’équivaut pas la modération de contenu sur une plateforme de réseau social, et le Conseil reconnaît que Meta, en sa qualité d’entreprise privée et non d’État, peut adopter et adopte parfois une approche plus restrictive quant à la liberté d’expression que ce qui serait justifiable si elle était un État, en tenant à la fois compte des valeurs de l’entreprise (voir paragraphes 27 et 28 susmentionnés) et les problématiques particulières liées à la modération du contenu à grande échelle. Le Rapporteur spécial des Nations Unies sur la liberté d’expression indique ce qui suit : « Lorsque les entreprises adoptent des règles qui diffèrent des normes internationales, elles doivent donner préalablement une explication motivée de ces différences, en les définissant clairement » (rapport sur le discours haineux en ligne du Rapporteur spécial sur la liberté d’expression, ( A/74/486, 9 octobre 2019, paragraphe 48). Dans un grand nombre de ses décisions antérieures, le Conseil a examiné comment transposer correctement les standards internationaux conçus pour des États pour les adapter aux responsabilités d’une entreprise dans le cadre des droits humains, au moment d’évaluer le critère de proportionnalité, car il cherche également à atteindre son objectif avec cet avis consultatif en matière de politique.
36. Les anciennes décisions prises par le Conseil dans le cadre du Standard de la communauté sur les personnes et organisations dangereuses ont également porté sur les responsabilités de Meta en matière de droits humains en ce qui concerne les « éloges » des entités désignées. La prévention des abus sur les plateformes de Meta commis par des entités désignées qui visent à inciter à la violence, à recruter ou à participer à d’autres formes de soutien substantiel constitue un objectif légitime. Or le Conseil a constaté dans plusieurs instances que l’étendue ou l’imprécision de l’interdiction des « éloges » a restreint la liberté d’expression des utilisateurs de façon inutile et disproportionnée. Ainsi, le Conseil a annulé la suppression de la publication d’un article de presse en langue ourdou indiquant que les talibans prévoiraient d’annoncer qu’ils autorisent les femmes et les filles à reprendre le chemin de l’école, estimant qu’il ne s’agissait pas d’« éloges » ( Mention des talibans dans les informations d’actualité). Il a également annulé la suppression décidée par Meta de la publication d’un utilisateur qui avait attribué de façon erronée une citation à Joseph Goebbels ( Citation nazie), grâce à un contexte suffisamment détaillé pour prouver que la publication ne constituait pas l’éloge de l’idéologie nazie, mais encourageait la discussion politique aux États-Unis. En outre, le Conseil a annulé la décision de Meta de supprimer une publication qui partageait un article d’Al Jazeera sur la menace de violence qu’un groupe terroriste désigné a proférée, qui aurait dû rester sur la plateforme, et a émis des inquiétudes quant aux effets potentiellement discriminatoires des politiques de Meta ( Publication partagée d’Al Jazeera). Dans la synthèse et les décisions publiées, le Conseil a par ailleurs annulé ou appelé à l’annulation de plusieurs décisions de Meta de supprimer des publications Facebook et Instagram d’abord retirées au motif qu’elles faisaient l’éloge de personnes désignées ( Amílcar Cabral, leader anticolonialiste ; Militant libanais ; Réponse face à l’antisémitisme ; Circonscription fédérale au Nigeria ; Éducation des jeunes filles en Afghanistan ; Mention de Al-Shabaab ; Gloire à Dieu ; et Otages kidnappées en Israël). Un grand nombre de ces décisions demeurent pertinentes, malgré les récentes modifications apportées par Meta à sa politique sur les personnes et organisations dangereuses. Le Conseil continuera d’évaluer cette politique dans de futurs cas, notamment en lien avec les nouvelles dispositions relatives à la glorification et aux « références ambiguës ».
6. Recommandations et analyses
37. Le Conseil de surveillance présente à Meta sept recommandations concernant la politique de contenu, la mise en application et la transparence. Il estime qu’elles sont réalisables à grande échelle et qu’elles permettront à Meta de mieux observer ses valeurs liées à l’expression et à la sécurité, sans oublier la liberté d’expression et les autres droits humains, ainsi que la transparence.
6.1 Politique de Meta relative au terme « chahid »
Recommandation n° 1 – Politique de contenu : Meta ne doit plus supposer que le terme « chahid », utilisé pour évoquer une personne désignée ou des membres anonymes d’organisations désignées, est toujours en infraction et inéligible aux exceptions à la politique. Le contenu qui évoque une personne désignée sous le terme « chahid » doit être supprimé en tant que « référence ambiguë » dans deux situations uniquement. Tout d’abord, lorsqu’un ou plus des trois éléments à caractère violent apparaissent : une représentation visuelle d’un armement/arme, une déclaration d’intention ou un soutien pour utiliser ou porter un armement/arme, ou une référence à un évènement désigné. Ensuite, lorsque le contenu enfreint d’une autre manière les politiques de Meta (par exemple, en glorifiant ou en faisant référence à une personne désignée de façon ambiguë pour des raisons autres que l’utilisation de « chahid »). Dans ces deux cas, le contenu reste éligible aux exceptions liées aux « reportages, discussions neutres et condamnations ».
Le Conseil estimera que cette recommandation a été suivie lorsque Meta aura publiquement mis à jour ses Standards de la communauté afin de préciser que les références aux personnes désignées utilisant le terme « chahid » ne sont pas autorisées lorsqu’un ou plus des trois éléments à caractère violent listés sont présents.
Recommandation n° 2 – Politique de contenu : Pour clarifier l’interdiction relative aux « références ambiguës », Meta doit inclure plusieurs exemples de contenu en infraction, notamment une publication faisant référence à une personne désignée en tant que « chahid » associée à un ou plus des trois éléments à caractère violent indiqués dans la recommandation n° 1.
Le Conseil estimera que cette recommandation a été suivie lorsque Meta aura publiquement mis à jour ses Standards de la communauté en y ajoutant des exemples de « références ambiguës ».
Recommandation n° 3 – Mise en application : Les conseils internes sur la politique de Meta doivent également être mis à jour afin de préciser que les références aux personnes désignées comme « chahid » ne constituent pas une infraction sauf si elles sont accompagnées par des éléments à caractère violent, et que même lorsque ces éléments sont présents, le contenu peut toujours bénéficier des exceptions liées aux « reportages, discussions neutres ou aux condamnations ».
Le Conseil estimera que cette recommandation a été suivie lorsque Meta aura mis à jour ses conseils destinés aux équipes d’examen permettant au terme « chahid » de bénéficier des exceptions liées aux reportages, aux discussions neutres ou aux condamnations, et aura partagé ses conseils révisés avec le Conseil.
38. Même si Meta doit impérativement essayer d’empêcher que ses plateformes servent à encourager les actes de terrorisme, ce qui représente un objectif légitime de ses politiques de modération de contenu, les responsabilités de Meta en matière de droits humains exigent que les restrictions imposées à la liberté d’expression soient nécessaires et proportionnées, notamment pour que les personnes vivant dans des communautés touchées par la violence puissent d’exprimer librement. Bien que l’une des significations de « chahid » corresponde au terme anglais « martyr » et soit exprimé dans ce sens, le Conseil juge qu’en supprimant tous les contenus uniquement au motif que « chahid » est utilisé en référence à des personnes désignées, Meta prend des mesures qui ne sont ni nécessaires ni proportionnées. Cela vient du fait que l’interdiction catégorique ne tient pas compte de la complexité linguistique du terme, entraîne une suppression excessive de ce discours, restreint indûment la liberté des médias et l’espace civique, et nuit gravement à l’égalité et à la non-discrimination. Par ailleurs, si cette recommandation faisait l’objet d’une acceptation et d’une mise en place, la politique détaillée de Meta interdisant plus généralement la « glorification » et les « références ambiguës » continuera de s’appliquer. Meta doit toutefois cesser de supprimer le contenu en se basant uniquement sur la présence du mot « chahid ». Au lieu de cela, Meta doit adopter une approche plus contextuelle, et définir clairement et précisément les éléments à caractère violent qui conduisent le terme « chahid » à être interprété comme nuisible. Comme nous l’avons expliqué précédemment, le Conseil ne soutient que deux des six éléments proposés par Meta dans sa requête, et recommande de limiter la portée d’un troisième. Les trois autres éléments présentés, fournis sous forme de conseils aux équipes d’examen chargées d’appliquer la politique relative à la violence et l’incitation, sont trop larges pour satisfaire la politique sur les personnes et organisations dangereuses. Dans le même temps, le Conseil recommande à Meta d’appliquer des exceptions au contenu qui informe au sujet d’une entité désignée, la condamne ou en discute de façon neutre lorsque des éléments à caractère violent sont présents. Les recommandations susmentionnées s’appliquent au terme « chahid » au singulier et au pluriel, ainsi qu’à ses variantes dans toutes les langues qui l’ont adopté.
39. Le Conseil a consulté des spécialistes et parties prenantes afin d’évaluer les préjudices susceptibles de survenir si le contenu utilisant le terme « chahid » en référence à des entités désignées est autorisé sur les plateformes de Meta. Certaines parties prenantes ont émis des inquiétudes quant au fait que les plateformes de Meta pourraient favoriser les initiatives de propagande et de recrutement des terroristes, mais également encourager la discrimination ou la violence, notamment contre les juifs (voir les commentaires publics PC-11123 – CyberWell Ltd ; PC-11153 – Stop Antisemitism Now ; PC-11194 – Committee for Accuracy in the Middle East ; PC-11068 – Canadian Antisemitism Education Foundation). Bien qu’aucune recherche ne démontre un lien de cause à effet concret entre le terme « chahid » et une hausse de ladite violence ou discrimination (comme nous l’avons précédemment remarqué dans la référence de Meta à la page 10, et qui découlait de l’engagement des experts et parties prenantes que Meta elle-même a conduit avant de requérir l’avis consultatif en matière de politique), le désir de devenir un martyr en commettant des actes violents apparaît dans certains cas. Plus généralement, le fait que les réseaux sociaux puissent être utilisés par des organisations violentes pour recruter et promouvoir le passage à l’acte terroriste, en vue de normaliser et favoriser l’extrémisme, suscite de vives inquiétudes. L’engagement élargi des parties prenantes et les consultations auprès d’experts menées par le Conseil, incluant une table ronde réunissant des experts de la lutte contre le terrorisme (voir tables rondes relatives à l’engagement des parties prenantes), ont confirmé ces hypothèses et inquiétudes.
40. De nombreuses soumissions présentées au Conseil par des experts et parties prenantes ont également décrit les impacts négatifs sur la liberté d’expression entraînés par la suppression de contenu utilisant le terme « chahid » (voir les commentaires publics PC-11196 – Integrity Institute ; PC-11164 – SMEX, PC-11183 ECNL EFF, PC-11190 – Brennan Centre ; PC-11188 – Digital Rights Foundation). Cela inclut la suppression du discours contenant le terme « chahid » qui n’est ni utilisé pour faire l’éloge d’entités désignées ni les glorifier, mais pour informer la population sur la violence commise par des organisations terroristes ou autres désignées, ou pour participer à des discussions politiques ou académiques neutres sur des personnes désignées.
41. Les exemples suivants peuvent illustrer l’approche de Meta en cas de suppression du contenu faisant référence à une personne désignée comme « chahid » :
- Un gouvernement partage un communiqué de presse sur les plateformes de Meta confirmant le décès d’une personne désignée, et utilisant le terme honorifique « chahid » pour accompagner son nom. Cette publication serait supprimée, car Meta suppose que ce terme est en infraction, sans tenir compte du contexte indiquant qu’il s’agit d’une discussion neutre.
- Un utilisateur partage la photo d’une manifestation à laquelle il participe, sans légende claire expliquant l’objectif de cet évènement. Plusieurs pancartes nomment une personne désignée décédée en utilisant le terme « chahid ». Cette publication serait supprimée, car Meta suppose que l’image sur les pancartes nommant la personne désignée, associée au terme « chahid », constitue une infraction.
- Un militant des droits humains partage une publication décrivant l’exécution sommaire orchestrée par un État d’une personne désignée, en l’évoquant avec le terme « chahid », et condamnant la politique d’un gouvernement en matière de lutte contre le terrorisme. Cette publication serait supprimée, car Meta suppose que ce terme est en infraction, indépendamment du contexte du signalement.
- Un membre d’une communauté précise publie une récrimination au sujet de l’état d’une route locale, nommée d’après une personne désignée et incluant le terme honorifique de « chahid ». Cette publication serait supprimée, car Meta suppose que le terme « chahid » constitue une infraction, indépendamment du fait que la personne désignée est mentionnée dans le cadre d’une discussion sur des affaires locales.
- Le membre d’une famille évoque un proche tué dans une attaque terroriste en utilisant le terme « chahid » et condamne les auteurs, qui sont des personnes désignées. Bien que la publication ne constitue pas une infraction, l’association de l’utilisation de « chahid » dans un contexte où les auteurs d’un acte terroriste sont également nommés illustre bien les contenus qui suscitent des suppressions erronées, compte tenu de l’approche catégorique de Meta.
42. Certaines parties prenantes ont exprimé des inquiétudes quant au fait qu’une approche moins restrictive de l’utilisation de « chahid » puisse contribuer à un effet cumulatif de normalisation du terrorisme à grande échelle. Bien que l’on ne puisse nier que dans certains cas, ce terme vise à constituer, et constitue en effet, une forme d’approbation ou de soutien à une personne et à ses actes violents, le Conseil ne juge pas légitime son interdiction généralisée pour ces motifs. À la lumière des informations communiquées au Conseil par les parties prenantes, notamment les experts de la lutte contre le terrorisme, et les précédentes recherches de Meta et consultations des parties prenantes, le Conseil est parvenu à la conclusion que les inquiétudes sur la probabilité que certains cas puissent avoir d’importants effets nuisibles cumulatifs sont dépassées par l’impact négatif réel de la politique actuellement en vigueur sur la liberté d’expression. Cela est particulièrement vrai car, même si les recommandations du Conseil sont mises en place, d’importants garde-fous demeurent actifs afin d’améliorer les objectifs liés à la prévention de la violence et des autres préjudices liés au fait d’autoriser les terroristes et leurs soutiens à s’exprimer librement sur les plateformes de Meta.
43. Le Conseil a également estimé que « chahid » revêt plusieurs significations, et est souvent utilisé dans des circonstances qui n’incitent ni à la violence ni à la haine, mais plutôt en vue d’informer la population sur des sujets d’intérêt public. La mise en application d’une interdiction généralisée induit la suppression d’un grand nombre de contenus qui n’exposent les utilisateurs à aucun préjudice que les politiques de Meta visent à atténuer. Bien que la modération de contenu à grande échelle exige parfois d’accepter un certain pourcentage d’erreur de mise en application, il incombe à Meta de peser le pour et le contre en fonction de l’ensemble de ses responsabilités en matière de droits humains. Compte tenu de tous ces points à prendre en considération, le Conseil en conclut que l’approche qu’il a proposée concilie au mieux toutes les responsabilités de Meta dans ce domaine.
Signification culturelle et religieuse du terme « chahid » et pluralité de ces significations
44. « Chahid » est un terme important au niveau culturel et religieux utilisé dans un certain nombre de contextes et revêt différentes significations. Les commentaires publics adressés au Conseil et les recherches commandées par ce dernier ont complété les informations sur ce terme. « Chahid » peut signifier « attester » et « témoigner ». Il est également porté en tant que prénom dans la religion musulmane et dans certaines régions, notamment l’Asie de l’Ouest et l’Afrique du Nord, en tant que nom de famille (voir les commentaires publics PC-11196 – Integrity Institute ; PC-11164 – SMEX). Il s’utilise par ailleurs pour désigner les personnes décédées en réalisant un devoir religieux. En cas de conflits armés ou d’attaques violentes, notamment lorsque des organisations désignées sont impliquées, il arrive que l’on commémore les victimes de la violence et du terrorisme en les évoquant sous le terme de « chahid » (voir les commentaires publics PC-11164 – SMEX ; le commentaire PC-11197 soumis par le Gouvernement de Nouvelle-Zélande désigne les victimes de la fusillade de Christchurch comme des « chouhada », la forme plurielle de « chahid » ; le commentaire PC-11196 de l’Integrity Institute souligne que les communautés musulmanes marginalisées de certains pays, notamment les Rohingya, désignent les réfugiés qui ont dû quitter le Myanmar en raison des persécutions motivées par la religion ou la croyance sous le terme « chahid »). De nombreuses recherches sur le contenu publié et laissé sur les plateformes de Meta, que le Conseil a commandées auprès de Memetica, ont indiqué que « chahid » est largement utilisé pour désigner des personnes décédées en servant leur pays ou leur cause, ou des victimes inattendues d’actes de violence sociopolitique ou de catastrophes naturelles. Même si ces publications n’associaient pas nécessairement « chahid » à une personne désignée, les exemples susmentionnés (voir paragraphe 41) illustrent la pertinence contextuelle des nombreuses significations et utilisations de ce terme.
45. Suite aux attaques terroristes menées par le Hamas contre Israël en octobre 2023, et à l’action militaire israélienne qui en a découlé à Gaza, le Conseil a commandé de nouvelles recherches sur les tendances de contenu liées à l’utilisation de « chahid ». Sur les plus de 12 000 publications publiques examinées dans cette analyse, seulement deux soutenaient le Hamas. Presque toutes les utilisations décrivaient les victimes palestiniennes dans la bande de Gaza, sans mentionner la moindre personne ou organisation désignée. Les publications évoquaient le deuil des Palestiniens suite à la perte de leurs proches, tandis que d’autres montraient les enfants palestiniens blessés et/ou les conséquences des attaques aériennes menées sur Gaza. D’autres questions ont été posées à Meta, étant donné que l’accès des chercheurs aux tendances de contenu est limité au contenu public qui n’a pas été retiré des plateformes, et ne couvre pas le contenu supprimé par Meta en raison d’une infraction à sa politique sur les personnes et organisations dangereuses. La réponse de Meta a renforcé les conclusions de cette recherche. Selon l’entreprise, les tendances de contenu au cours de la crise ne montraient aucune modification dans l’utilisation ou la compréhension du mot « chahid » par rapport à la situation avant ces évènements.
46. Ces diverses significations indiquent qu’en supposant par défaut que l’utilisation de « chahid » enfreint la politique et entraîne des préjudices réels, et doit donc systématiquement être supprimé, Meta impose des coûts globaux à la liberté d’expression qu’elle doit résoudre. Elle a expliqué que « chahid » est probablement le mot le plus modéré sur ses plateformes et plusieurs parties prenantes ont observé que le contenu informatif sur les entités désignées et la violence est souvent supprimé par Meta ( avis consultatif en matière de politique, page 3). Cette approche du mot « chahid » illustre le fait que l’entreprise priorise les distinctions claires (évidentes) pour la mise en application à grande échelle. Bien qu’en principe ce type de distinctions soient parfois justifiées, car la modération de contenu à grande échelle implique souvent des compromis difficiles à trouver, le Conseil conclut en l’espèce que l’hypothèse par défaut selon laquelle un contenu avec le mot « chahid » doit systématiquement être supprimé lorsqu’il évoque une personne désignée n’est pas légitime et doit être abandonnée. Comme Meta le reconnaît, son approche ne tient pas compte du contexte linguistique et culturel par essence, et entraîne une importante mise en application excessive, et ce de deux manières. Tout d’abord, elle provoque la suppression de contenu qui ne vise pas à faire l’éloge ou à glorifier, mais qui enfreint néanmoins la politique car Meta a décidé de considérer que « chahid » constitue systématiquement une infraction. Ensuite, elle encourage des taux plus élevés de suppression erronée de contenu utilisant le mot « chahid » en lien avec des personnes qui ne représentent pas des personnes désignées, car elle établit une catégorisation et décourage les évaluations plus contextuelles.
47. Malgré les nombreuses significations de « chahid », le Conseil observe que les exemples qui figuraient précédemment dans l’interdiction de Meta quant aux « éloges » aux personnes et organisations dangereuses ne tenaient pas compte du contexte des différents marchés, en les traduisant de façon exagérément simpliste et directe. Dans les Standards de la communauté, la seule fois où Meta fait état de son approche quant au contenu mentionnant le terme « chahid » concernait une phrase désignant un terroriste condamné sous le terme « martyr », mentionnée dans le cadre de son interdiction plus large sur les éloges. Cet exemple a été utilisé dans toutes les langues et, pour sa version arabe, a été traduit par « chahid », qui n’est pourtant pas nécessairement un équivalent. Le Conseil remarque que cet exemple a été supprimé lors de la mise à jour de la politique en décembre 2023. Bien que la traduction en l’espèce ne soit pas nécessairement inexacte, il n’est pas pertinent d’utiliser ce seul exemple pour affirmer que « chahid » équivaut systématiquement à « martyr ».
48. Pour les mêmes raisons à l’inverse, les conclusions du Conseil dans cet avis consultatif en matière de politique autour du terme « chahid » ne doivent pas s’appliquer automatiquement à « martyr » et à l’ensemble des traductions de ce mot dans les autres langues. « Martyr » et « chahid » ne sont pas des équivalents directs, car le premier est moins variable sur le plan sémantique en anglais, et ce dans toutes les régions anglophones. Meta devra identifier dans toutes les langues quels termes satisfont les conditions minimales de Meta en matière de « glorification », en gardant à l’esprit les conseils énoncés dans cet avis consultatif en matière de politique. Dans tous les cas, le Conseil ne saurait soutenir les interdictions généralisées qui isolent et interdisent le mot « chahid » dans le contexte élargi des publications qui l’utilisent. Conformément au précédent du Conseil de surveillance, ces publications doivent faire l’objet d’une évaluation intégrale. En outre, aux termes de ses politiques publiques, Meta doit garantir que ses exceptions de politique autorisent les utilisateurs à « réaliser des reportages, à condamner ou à discuter de façon neutre » des personnes désignées lorsque le terme « martyr » est utilisé (ainsi que les termes véritablement correspondants liés à la glorification ou à la référence positive dans d’autres langues). Cela souligne la nécessité d’adapter les conseils internes fournis aux équipes d’examen au contexte local et de revoir les spécificités linguistiques (voir les préoccupations similaires exprimées dans la décision du Conseil relative au Bot au Myanmar, sur laquelle repose la recommandation n° 1 du cas présent).
49. Dans certains cas, le Conseil a appelé Meta à réajuster le compromis entre la mise en place de règles claires qui s’avèrent applicables à grande échelle et de politiques qui tiennent davantage compte du contexte en vue de la mise en application, en favorisant souvent la liberté d’expression des utilisateurs (par exemple, afin de soutenir les reportages sur des entités désignées, voir Mention des talibans dans les informations d’actualité et Publication partagée d’Al Jazeera). Les précédents cas ne concernaient pas directement l’utilisation de « chahid », mais le Conseil a mis en garde contre l’idée que les utilisateurs seraient nécessairement mal intentionnés lorsqu’ils évoquent des entités désignées (voir le cas sur la Citation nazie). Plusieurs commentaires publics soulignent le fait que l’hypothèse de Meta selon laquelle « chahid » équivaut systématiquement à des « éloges » pourrait, en raison des erreurs des équipes de modération ou de l’automatisation à grande échelle, conduire à une mise en application excessive contre les personnes qui commémorent les victimes d’attaques terroristes (voir les commentaires publics PC-11164 – SMEX, page 1 ; PC-11197 émis par le Gouvernement de Nouvelle-Zélande). La suppression de ce contenu peut même aller à l’encontre des objectifs de la politique sur les personnes et organisations dangereuses, car elle pourrait entraver la discussion relative à la violence terroriste et les initiatives menées pour combattre les idéologies qui sous-tendent cette violence (voir, par exemple, le commentaire PC-11164 – SMEX).
Respect de la liberté des médias et de l’espace civique
50. Le Conseil émet de vives inquiétudes quant aux conséquences de l’approche de Meta sur le journalisme et le discours civique. Ces effets sont d’autant plus graves dans les endroits où les actes violents perpétrés par des terroristes ou d’autres organisations désignées sont fréquents, et où des entités désignées contrôlent le territoire ou détiennent le pouvoir politique. Plusieurs commentaires publics ont témoigné de ces inquiétudes (voir les commentaires publics PC-11196 – Integrity Institute ; PC-11157 – Palestine Institute for Public Diplomacy). Les organes de presse et les autres commentateurs peuvent être réticents à l’idée de communiquer sur des entités désignées, car ils craindront d’être visés par des suppressions de contenu susceptibles d’entraîner de graves sanctions, notamment la suppression de pages ou de groupes, ou la désactivation de comptes. Dans certains cas, cela peut s’avérer imprévisible, par exemple, les reportages sur une manifestation organisée contre un acteur gouvernemental lors de laquelle les participants affichent leur soutien à des personnes désignées ayant été tuées par ce même acteur. Les conventions linguistiques, culturelles ou religieuses pourraient indiquer que « chahid » est utilisé pour évoquer des personnes tuées dans ces circonstances, notamment celles ayant perdu la vie en commettant des actes de violence.
51. Il convient de noter à quel point les situations où des entités désignées commettent des actes de violence sont complexes, notamment dans ce que nous pouvons qualifier de conflits armés, de résistance à une occupation étrangère et de troubles sociaux. Les médias peuvent rencontrer des difficultés lorsqu’ils communiquent sur ces situations, car les organes de presse doivent être sensibles aux conventions locales sur le plan linguistique, culturel ou religieux tout en observant les politiques de Meta sur le contenu. Ces préoccupations sont aggravées par le manque de transparence autour de la liste des entités désignées établie par Meta et le fait que les utilisateurs n’ont pas connaissance des personnes et organisations listées. Les reportages consacrés à ces évènements peuvent également inclure des éléments à caractère violent, tels que la représentation d’un armement qui, en dehors des exceptions liées aux reportages, aux discussions neutres ou aux condamnations, peuvent indiquer une infraction de la politique. Meta doit donc impérativement appliquer une exception à sa politique dans les instances où le contenu constitue un reportage, une discussion neutre ou une condamnation d’une entité désignée.
52. À cause de l’interdiction, les utilisateurs peuvent plus difficilement exprimer leurs opinions et leurs critiques s’ils vivent dans des endroits où des entités désignées œuvrent ou détiennent le pouvoir politique. Afin d’éviter la confrontation directe et de s’exposer à des risques pour leur sécurité, il se peut que les utilisateurs qui vivent dans ces contextes s’expriment d’une façon respectueuse qui ne devrait pas nécessairement être interprétée comme un éloge. Il est particulièrement préoccupant qu’un tel discours fasse l’objet de sanctions, car les réseaux sociaux apportent un important espace de débat, notamment dans les zones de conflit et les pays où la liberté de la presse est limitée.
Égalité et non-discrimination
53. L’usage de « chahid » étant particulièrement répandu et variable, surtout parmi les arabophones et les locuteurs (majoritairement musulmans) d’autres langues qui empruntent le terme « chahid », la politique de Meta influence ces communautés de façon disproportionnée. Cette situation soulève de vives inquiétudes eu égard à la responsabilité de l’entreprise en matière de droits à la liberté et à la non-discrimination dans l’exercice des droits des utilisateurs à la liberté d’expression. De nombreux commentaires publics se sont concentrés sur cette problématique (voir par exemple les commentaires PC-11183 ECNL EFF, PC-11190 – Brennan Centre ; PC-11188 – Digital Rights Foundation ; PC-11196 – Integrity Institute ; voir également le rapport de BSR sur l’impact de Meta en Israël et en Palestine). Le Programme des Nations Unies pour le développement (PNUD), dans son rapport intitulé « Interrompre le parcours vers l’extrémisme », souligne que les moteurs clés de la violence extrémiste sont, entres autres causes profondes, « l’inégalité, l’exclusion, le manque d’opportunités et le sentiment d’injustice ». Le Conseil craint que l’approche de Meta au sujet de sa politique puisse aggraver les expériences de marginalisation et d’exclusion de certaines communautés, et même s’avérer contre-productive pour atteindre l’objectif de réduction de la violence. D’après les observations du PNUD sur la modération de contenu sur les plateformes en ligne, les entreprises doivent s’assurer que le travail de prévention de l’extrémisme violent « ne conduise pas involontairement à stigmatiser ou cibler certains individus. »
Prévenir les préjudices en ayant recours à des moyens moins intrusifs
54. Une évaluation de la nécessité et de la proportionnalité de la politique requiert également d’analyser s’il existe des moyens moins restrictifs pour atteindre l’objectif légitime concerné. Si elles étaient mises en place, les recommandations du Conseil dans cet avis exigeraient que Meta cesse catégoriquement de supprimer toutes les publications où « chahid » évoque des personnes désignées. Toutefois, le contenu utilisant ce terme pourrait toujours être supprimé dans des circonstances plus strictes, lorsque le risque de préjudice est moins ambigu et plus marqué. Les recommandations autoriseraient Meta à continuer de supprimer le contenu utilisant le terme « chahid » pour évoquer des personnes désignées s’il est accompagné d’autres infractions de la politique (par exemple, la glorification ou des références ambiguës), ou s’il comporte des éléments à caractère violent. Ainsi, les restrictions demeureront importantes, et les effets négatifs de la politique diminueront, notamment son application excessive contre certains groupes linguistiques et religieux.
55. La présence d’éléments à caractère violent associés à une référence à une personne désignée sous le terme « chahid » démontrent plus clairement que la publication vise à évoquer cette personne positivement, en raison de son association à la violence (sous réserve que les exceptions liées au reportage, à la discussion neutre ou à la condamnation ne s’appliquent pas). Dans sa requête, Meta a proposé les éléments à caractère violent suivants, en s’inspirant des conseils internes de sa politique relative à la violence et à l’incitation : (1) une représentation visuelle d’un armement ; (2) une déclaration d’intention ou un soutien à l’utilisation ou au port d’un armement/d’une arme ; (3) une référence au langage militaire ; (4) une référence aux incendies criminels, aux pillages ou aux autres destructions de biens ; (5) une référence à des incidents violents réels et connus ; et (6) des déclarations d’intention, des appels à l’action, représentant, soutenant ou défendant la violence contre des personnes. Le Conseil estime que certains de ces éléments apportent des indications utiles sur le contenu susceptible de causer des préjudices, que l’on ne pourrait supposer au vu de l’utilisation de « chahid » en elle-même. Cependant, d’autres éléments ne sont pas jugés très utiles dans le cas présent. La politique publique sur la violence et l’incitation évoque des « éléments temporaires d’un risque de violence accru » à trois reprises, à chaque fois en lien avec les règles énoncées afin de résoudre les risques de violence dans certains endroits et lors d’évènements ponctuels, tels que les bureaux de vote et les manifestations. L’application généralisée de l’ensemble de ces éléments visant à orienter la mise en application des références à « chahid » indépendamment du contexte, pour lesquels la probabilité de préjudice n’est pas aussi probable ou imminente, risque d’entraîner une application disproportionnée.
56. Le Conseil estime que, dans le contexte élargi de la politique relative aux personnes et organisations dangereuses, il est approprié de prévoir un ensemble d’éléments restreint. La présence d’une représentation visuelle d’un armement, et celle d’une déclaration d’intention ou de soutien à l’utilisation ou au port d’un armement ou d’une arme, doivent être considérées comme des indicateurs de contenu davantage susceptibles d’entraîner des préjudices. Le Conseil juge que l’élément faisant « référence à des incidents violents réels et connus » est cependant trop large, en incluant un trop grand nombre de scénarios sans lien avec la violence des personnes ou des organisations désignées. Sa définition doit donc être plus restreinte et limitée aux évènements désignés en vertu de la politique de Meta sur les personnes et organisations dangereuses, qui incluent les attaques terroristes, les évènements haineux, la violence faisant plusieurs victimes ou la tentative de violence faisant plusieurs victimes, les meurtres en série et les crimes de haine. Les trois éléments recommandés par le Conseil autorisent une nuance contextuelle plus large afin de réduire la suppression des contenus ambigus évoquant le terme « chahid », qui font plus expressément référence aux actes de terrorisme.
57. Les éléments restants proposés par Meta quant aux « références au langage militaire » et « aux incendies criminels, aux pillages ou aux autres destructions de biens » sont trop larges et conduiraient à une mise en application peu précise. Le dernier élément proposé relatif aux « déclarations d’intention, aux appels à l’action, représentant, soutenant ou défendant la violence contre des personnes » entraînerait, de façon indépendante, une violation du Standard de la communauté sur la violence et l’incitation, et constituerait donc un doublon inutile s’il était inclus comme élément à caractère violent.
58. En faisant la distinction avec la troisième option de politique établie par Meta, le Conseil remarque que même lorsque des références aux personnes désignées sont exprimées avec des éléments à caractère violent, il se peut qu’elles ne visent pourtant pas à les glorifier, elles ou leurs actes. Dans sa requête (pages 9 et 10), Meta explique le risque d’une application excessive, en évoquant les pratiques de reportages des médias au Pakistan. Le Conseil affirme qu’il arrive souvent que les médias, pour évoquer le décès d’une personne désignée, incluent des images la montrant armée et/ou montrant les dégâts qu’elle a causés, tout en ne glorifiant pas ces actions. Pour cette raison, il est nécessaire de former les équipes d’examen à grande échelle afin qu’elles ne suppriment pas le contenu s’il est clairement établi que son intention est d’informer la population, de condamner ou de discuter de façon neutre de l’entité.
59. Par ailleurs, les modifications recommandées par le Conseil en matière de politique n’influenceraient aucunement de nombreuses autres politiques sur le contenu destinées à empêcher les terroristes et leurs soutiens d’utiliser les plateformes de Meta en vue d’occasionner des préjudices réels. Les publications contenant le terme « chahid » en référence à une personne désignée de niveau 1 seraient supprimées dans les circonstances suivantes :
- Lorsqu’elles sont accompagnées d’un ou plus des trois éléments à caractère violent susmentionnés.
- Lorsqu’elles enfreignent d’une quelconque autre manière la politique relative aux personnes et organisations dangereuses (par exemple, en représentant, en soutenant ou en glorifiant une personne désignée). La glorification inclut la légitimation ou la défense d’actes violents ou haineux perpétrés par une personne désignée, ou la célébration de sa violence ou de sa haine en tant qu’accomplissement.
- Lorsque les publications enfreignent d’autres politiques, notamment celles relatives au discours haineux ou à la violence et l’incitation.
- Lorsque les publications comportent des références « ambiguës ou sans contexte ». Cela inclut l’« humour équivoque et les références positives ou sans légende qui ne glorifient pas les actes de violence ou de haine perpétrés par l’entité désignée ».
60. Les recommandations du Conseil n’empêcheront donc pas Meta de demander à ses utilisateurs de préciser clairement l’intention de leurs publications lorsqu’elles évoquent une personne désignée de niveau 1 en la qualifiant de « chahid ». Meta ne peut simplement plus s’appuyer uniquement sur le terme « chahid » pour affirmer qu’une publication est en infraction. La participation active de Meta dans le Global Internet Forum to Counter Terrorism et son utilisation de la base de données de correspondance hachée garantissent également la suppression de contenu susceptible d’occasionner des préjudices réels. Les recommandations du Conseil permettront une mise en application plus claire, contextualisée et proportionnée contre le contenu pouvant accroître les risques de violence, tout en améliorant le respect de la liberté d’expression et de la non-discrimination.
Évaluation des autres options disponibles en matière de politique
61. Pour ces raisons, le Conseil conclut que le maintien du statu quo de la politique, présenté par Meta comme une option que le Conseil doit prendre en considération, soumettrait la liberté d’expression à des restrictions injustifiées qui affectent de façon disproportionnée les arabophones, les communautés linguistiques connexes et les musulmans. La deuxième option de politique proposée par Meta est similaire à la troisième option, que le Conseil recommande, dans la mesure où elle cherche à contextualiser l’utilisation du terme « chahid » et en autorise l’utilisation lorsqu’il évoque des personnes dangereuses, et ce de plusieurs façons. En réalité, Meta affirme que les modifications apportées à la politique le 29 août 2023 autorisent dans certaines instances un discours plus social et politique, notamment dans le cadre d’accords de paix, d’élections, de sujets liés aux droits humains, de reportages d’actualité et universitaires, de discussions neutres et de condamnation. Cela rend les résultats recherchés dans les deuxième et troisième options de politique encore plus proches. La différence la plus significative entre elles concerne leur faisabilité technique et leur mise en application pratique à grande échelle. La deuxième option oblige Meta à d’abord établir de façon affirmative que l’une des exceptions autorisées s’applique, puis à examiner si le contenu enfreint la politique ou comporte des éléments à caractère violent, tandis que la troisième option cherche directement à savoir si le contenu enfreint la politique ou comporte des éléments à caractère violent. Meta affirme que la deuxième option serait beaucoup plus lourde à concevoir et à mettre en œuvre sur le plan technique, car elle nécessite de tenir compte d’un grand nombre d’exceptions possibles (encore plus nombreuses depuis les récentes mises à jour de la politique), chacune dépendant fortement d’une évaluation du contexte. La difficulté d’effectuer ces évaluations de manière précise et cohérente signifie ensuite que cela nécessitera probablement un examen manuel bien plus important et entraînera un nombre beaucoup plus élevé d’erreurs de mise en application.
62. Le Conseil estime qu’il est préférable que Meta s’appuie sur une approche qui examine de façon plus uniforme toutes les utilisations de « chahid » en lien avec des personnes désignées, au-delà des exceptions en vigueur, et les supprime lorsqu’elles sont accompagnées d’autres violations de la politique ou de l’un des trois éléments à caractère violent listés dans la recommandation n° 1. Modifier la politique pour adopter une position plus proche de la troisième option proposée par Meta selon laquelle « chahid » doit être traité comme une référence interdite uniquement lorsque le contenu comporte d’autres violations de la politique ou mentionne des éléments à caractère violent spécifiques, comme le Conseil le recommande, réduira les faux positifs (suppressions erronées d’un contenu ne constituant pas une infraction), protégera plus efficacement le discours d’intérêt public, la liberté des médias et le discours civique, et réduira l’impact négatif sur le droit à l’égalité et à la non-discrimination dans les groupes affectés. En réponse aux questions du Conseil suite aux attaques menées par le Hamas contre Israël en octobre 2023 et le conflit qui en a résulté, Meta a confirmé que ces évènements n’ont pas modifié son analyse relative à l’évolutivité des options d’abord présentées dans sa requête. D’après le Conseil, les recommandations proposées, qui s’appuient sur la troisième option de Meta, feraient davantage preuve de résilience face aux potentielles erreurs en cas de crise de cette ampleur, sous réserve que les exceptions à la politique liées aux « reportages, discussions neutres et condamnations » restent en vigueur. Le Conseil reconnaît que l’entrée en vigueur de ces exceptions à la politique complexifie l’évolutivité de la politique que Meta a proposée dans sa troisième option, mais conclut qu’elles sont indispensables pour protéger correctement la liberté d’expression liée à la modération de contenu utilisant le terme « chahid ».
63. Une minorité des membres du Conseil ne partagent pas cet avis et recommanderaient plutôt le maintien du statu quo ou que Meta adopte la deuxième option proposée. Certains soulignent que le terme « chahid » est en réalité utilisé par les organisations terroristes pour faire l’éloge des auteurs d’actes de violence et les glorifier, et que cela peut encourager la radicalisation et le recrutement. Ces membres du Conseil estiment que ces faits représentent en eux-mêmes un risque suffisamment grave de préjudice réel qui justifie le maintien de l’interdiction catégorique actuelle, même si cela réduit la liberté d’expression. D’autres membres estiment que l’absence de données pertinentes sur l’étendue des préjudices réels susceptibles d’être liés à l’utilisation du terme « chahid » sur les plateformes de Meta, et sur la prévalence de l’application excessive de la politique légitime l’adoption d’une approche plus prudente, en privilégiant la sécurité. Certains membres du Conseil estiment également que la deuxième option, selon laquelle Meta ne tiendrait compte de la signification et de l’utilisation de « chahid » que lorsque des exceptions autorisées spécifiques sont d’abord considérées applicables, constitue un compromis plus adapté, nonobstant les implications de ses difficultés techniques et la faisabilité à grande échelle. Le Conseil a pris en considération et a discuté en détail de ces possibilités. Pour les raisons indiquées dans les sections précédentes, la majorité est parvenue à la conclusion que les recommandations basées sur la troisième option de Meta sont les plus adaptées à la situation.
Suspensions et sanctions
64. Bien qu’il puisse être justifié de maintenir les autres restrictions en vertu de la politique sur les personnes et organisations dangereuses, Meta doit s’assurer du caractère proportionné de ces restrictions et des sanctions imposées en cas d’infraction. Meta a précédemment informé le Conseil qu’elle applique systématiquement des sanctions graves pour l’ensemble des violations de cette politique, notamment dans le cadre de son ancienne interdiction des « éloges ». Plusieurs suspensions peuvent entraîner plus rapidement des sanctions au niveau du compte, telles que la limitation ponctuelle des fonctionnalités, la suspension de compte et la désactivation définitive de profils ou de pages. Ces mesures peuvent gravement restreindre les droits des utilisateurs à la liberté d’expression (ce que les commentaires publics ont également mis en avant, tels que PC-11190 – Brennan Centre). Le Conseil a auparavant recommandé à Meta d’améliorer la clarté et la transparence de son système de suspensions ( recommandation n° 2 du cas sur la Mention des talibans dans les informations d’actualité ; recommandation n° 15 du cas sur la Suspension de l’ancien président américain Trump). En réponse, Meta a intégré des informations sur son système de suspensions dans son Espace modération et permet aux utilisateurs d’examiner les sanctions que Meta a appliquées à leurs comptes. Meta a récemment mis à jour son système de suspensions standard afin qu’il soit plus proportionné, mais rien n’indique au public que l’approche de Meta sur les « suspensions graves » a également été modifiée.
65. Meta a indiqué travailler sur les modifications à apporter au système de mise en application lié à la politique sur les personnes et organisations dangereuses, bien qu’elle ne précise pas dans son explication relative à la mise à jour de la politique de décembre 2023 si son système a fait ou fera l’objet de modifications (par exemple, en ce qui concerne les suspensions graves), ni comment cela sera fait. Le Conseil se réjouit de la mise à jour du système si cela entraîne des sanctions plus proportionnées contre le contenu précisément identifié comme étant en infraction, conformément à ses précédentes recommandations. Les suspensions graves représentent des sanctions disproportionnées lorsque les infractions sont plus légères et plus ambiguës sur le plan sémantique, ce qui fait que la politique sur les personnes et organisations dangereuses continue de présenter un taux élevé de mise en application excessive et de traiter les utilisateurs de façon inappropriée.
6.2 Améliorer la transparence et les audits menés sur la liste
Recommandation n° 4 – Transparence : Afin de rendre plus transparente sa liste des entités et des évènements désignés, Meta doit expliquer plus en détail la procédure de désignation de ces entités et évènements. Elle doit également régulièrement publier des informations agrégées sur sa liste de désignation, en précisant le nombre total d’entités dans chaque niveau de sa liste, ainsi que le nombre d’entités ajoutées et supprimées dans chaque niveau l’année passée.
Le Conseil considérera que cette recommandation a été suivie lorsque Meta publiera les informations demandées dans son Espace modération.
Recommandation n° 5 – Mise en application : Pour s’assurer que la liste des personnes et organisations dangereuses désignées est bien à jour, et qu’elle n’inclut aucune organisation, personne et évènement ne répondant plus à la définition de Meta sur la désignation, l’entreprise doit introduire une procédure claire et efficace pour mener des audits réguliers sur les désignations et supprimer les entités qui ne correspondent plus aux critères publiés.
Le Conseil considérera que cette recommandation a été suivie lorsque Meta aura créé une telle procédure d’audit et l’aura expliquée dans son Espace modération.
66. La précédente politique de Meta relative aux personnes et organisations dangereuses stipulait que les « éloges » et l’utilisation du terme « chahid » étaient uniquement interdits s’ils faisaient référence à une entité désignée par Meta comme une personne dangereuse de niveau 1 (notamment les auteurs d’« évènements violents en infraction » désignés). Suite à la mise à jour de décembre 2023, la politique interdit à présent les « références ambiguës » et la glorification de toutes les entités désignées de niveau 1. Les « références ambiguës » peuvent inclure l’« humour équivoque, les références sans contexte et les références positives qui ne glorifient pas les actes de violence ou de haine perpétrés par l’entité désignée ». Les éventuels effets négatifs de ces interdictions imposées à la liberté d’expression dépendent largement des entités que Meta désigne comme des organisations de niveau 1 et des « évènements violents en infraction » qu’elle désigne. De nombreuses parties prenantes des tables rondes et des commentaires publics ont critiqué le manque de transparence et de procédures régulières concernant la liste, affirmant que Meta doit la publier (voir les commentaires publics PC-11164 – SMEX, p.3 ; PC-11157 – Palestine Institute for Public Diplomacy). L’une des parties prenantes s’est dit préoccupée du large partage de la liste, en soutenant que cela pourrait nuire à la sécurité. Compte tenu de l’importance de la liste pour comprendre l’étendue des politiques de Meta, cette dernière a communiqué au Conseil sa liste des personnes et organisations désignées de niveau 1 ainsi qu’une explication de ses processus de désignation, ce que le Conseil a consulté en détail, comme indiqué ci-après.
67. Comme nous l’avons vu précédemment, un grand nombre des listes sur lesquelles Meta s’appuie pour établir ses désignations de niveau 1 ont été rendues publiques par le Gouvernement des États-Unis. Ces listes incluent les « responsables du trafic de stupéfiants spécifiquement désignés », les « organisations terroristes étrangères » et les « terroristes internationaux spécifiquement désignés ». Ces listes sont très longues et comptent des entités (et leurs membres) évoluant dans des contextes très politisés, et ce sur plusieurs continents, et ne se limitent pas aux entités terroristes. Cette ampleur et cette diversité indiquent bien la possible étendue des interdictions que la politique de Meta sur les personnes et organisations dangereuses impose, notamment l’interdiction plus catégorique du terme « chahid » qui évoque des personnes désignées et leur influence.
68. Meta a expliqué que le processus qu’elle mène pour examiner et approuver l’ajout d’entités sur la liste des personnes et organisations dangereuses « s’appuie sur la consultation d’un panel de spécialistes internes, l’évaluation des données internes et des recherches externes ». L’entreprise a en outre mis en place un processus visant à documenter les « autres membres, alias, symboles, slogans, sous-groupes ou organes de presse liés à des personnes et organisations déjà désignées ». En 2022, après avoir évalué les menaces proférées sur ses plateformes par des personnes et organisations dangereuses, Meta a désigné moins de 1 000 entités. Les entités criminelles constituaient la majeure partie des désignations, suivies de près par les entités terroristes, puis les entités haineuses. Meta a établi une procédure de retrait de la liste qui évalue si une entité continue de satisfaire les conditions minimales de la politique pour être désignée comme une personne ou organisation dangereuse, et tient compte des « mesures actives prises par une entité afin de mettre un terme à ses actes de violence et d’instaurer la paix ». Cette procédure est actuellement en cours de refonte, mais a été appliquée moins de 10 fois en 2022. L’entreprise a expliqué mener des audits sur d’anciennes désignations dans le cadre de son travail continu pour en assurer la mise à jour autant que possible et refléter précisément les menaces proférées par des personnes et organisations dangereuses.
69. Meta a indiqué que le fait de mettre à la disposition du public sa liste des entités ou des évènements désignés, ou d’informer les entités de leur ajout à la liste, pourrait faire peser certains risques sur l’efficacité de la mise en application et la sécurité d’un grand nombre de ses employés. En découvrant qu’elles avaient été désignées, certaines entités ont intenté des poursuites judiciaires contre Meta (consulter l’affaire Facebook v. CasaPound , 29 avril 2020, Tribunal de Rome, Italie, et son analyse ici). Dans certains cas, le Conseil remarque que Meta a communiqué les désignations de certains groupes en réponse à des demandes de médias, et que ces désignations ont été partagées dans les décisions du Conseil de surveillance.
70. Le Conseil a précédemment recommandé à Meta de mettre à la disposition du public sa liste des entités désignées, ou au moins de fournir des exemples les illustrant (recommandation n° 3 du cas sur la Citation nazie). Meta n’a pas publié la liste et n’a communiqué aucune information au sujet de cette recommandation après une évaluation de la faisabilité. Si Meta continue de refuser de mettre en place cette recommandation, elle doit au minimum prendre d’autres mesures visant à rendre sa liste plus transparente. Les utilisateurs pourraient bénéficier d’une meilleure connaissance des règles et procédures de Meta si cette dernière publiait des données agrégées, améliorait la transparence de son processus de désignation et l’efficacité de son processus de retrait de la liste. Cela contribuerait par ailleurs à renforcer l’examen et la responsabilité des désignations de Meta et à améliorer le respect de la liberté d’expression et des autres droits humains. Meta doit par ailleurs envisager de simplifier l’accès des chercheurs aux données afin d’améliorer la transparence, tout en assurant la confidentialité de la liste.
6.3 Données permettant d’évaluer l’exactitude de la mise en application et tests sur les classificateurs
Recommandation n° 6 – Transparence : Pour améliorer la transparence de la mise en application de Meta, notamment en ce qui concerne les différences régionales dans les marchés et les langues, elle doit expliquer les méthodes qu’elle utilise pour évaluer la précision de l’examen manuel et les performances des systèmes automatisés dans la mise en application de sa politique sur les personnes et organisations dangereuses. Elle doit également régulièrement communiquer les conclusions des évaluations de performances des classificateurs utilisés pour appliquer cette même politique, en présentant les résultats d’une façon qui permet de comparer ces évaluations entre les langues et/ou les régions.
Le Conseil considérera que cette recommandation a été suivie lorsque Meta intégrera ces informations dans son Espace modération et dans les Rapports d’application des Standards de la communauté.
Recommandation n° 7 – Transparence : Afin d’informer les parties prenantes, Meta doit expliquer clairement comment les classificateurs sont utilisés pour prévoir les violations de la politique. Elle doit également indiquer comme elle établit ses conditions minimales pour savoir si elle doit ne prendre aucune mesure, faire remonter le contenu en vue d’un examen manuel ou le supprimer en décrivant les processus qui permettent de définir ces conditions minimales. Ces informations doivent être communiquées dans l’Espace modération de l’entreprise.
Le Conseil considérera que cette recommandation a été suivie lorsque Meta publiera les informations demandées dans son Espace modération.
71. Dans le cadre des tables rondes et des commentaires publics, de nombreuses parties prenantes ont déclaré que la mise en application de la politique de Meta sur les personnes et organisations dangereuses, et que le traitement du terme « chahid », que ce soit lors d’un examen manuel ou d’un examen automatisé, entraînaient souvent des erreurs affectant de façon disproportionnée les musulmans et les communautés linguistiques connexes (voir les commentaires publics PC-11183 ECNL EFF, PC-11190 – Brennan Centre ; PC-11188 – Digital Rights Foundation ; PC-11196 – Integrity Institute ; voir également le rapport de BSR sur l’impact de Meta en Israël et en Palestine). Meta a également reconnu dans sa requête qu’il s’agit d’une conséquence de sa politique relative au terme « chahid ». Afin d’améliorer la transparence, l’exactitude et l’équité des processus de mise en application manuels et automatisés, le Conseil émet les deux recommandations susmentionnées.
72. Meta a expliqué mesurer régulièrement la précision des processus de mise en application manuels et automatisés. Les équipes d’examen manuel font l’objet d’audits réguliers menés par des partenaires externes de Meta, et ces audits peuvent être soumis à d’autres évaluations par son équipe Global operations (opérations globales).
73. Le Conseil a précédemment recommandé à Meta d’améliorer ses rapports de transparence afin de davantage informer le public sur les taux d’erreur, en rendant ces informations accessible par pays et par langue en ce qui concerne les « éloges » et le « soutien » aux personnes et organisations dangereuses ( recommandation n° 12 du cas sur l’Isolement d’Öcalan) et pour chaque Standard de la communauté ( recommandation n° 3 du cas sur l’Inquiétude pendjabie concernant le RSS en Inde). Après avoir réalisé une évaluation de faisabilité, Meta a indiqué qu’elle a refusé de mettre en place cette recommandation ( recommandation n° 12 du cas sur l’Isolement d’Öcalan) ; mise à jour trimestrielle de Meta au T4 2021 sur le Conseil de surveillance, page 21), et qu’elle a décidé de concentrer ses efforts sur le long terme pour définir ses indicateurs d’exactitude en fonction des restrictions imposées au profil, à la page et au compte, ainsi que la localisation plutôt que la langue ( recommandation n° 3 du cas sur l’Inquiétude pendjabie concernant le RSS en Inde ; mise à jour trimestrielle de Meta au T2 2023 sur le Conseil de surveillance, page 59). Soucieux des préoccupations généralisées quant à la mise en application disproportionnée de la politique sur les personnes et organisations dangereuses, bien illustrée par la position de Meta concernant le terme « chahid » et le fait que Meta ne communique pas suffisamment les données pertinentes sur la mise en application, le Conseil réitère ses recommandations et la nécessité que l’entreprise améliore la transparence de la mise en application de sa politique par lieu.
74. Les données que Meta fournit actuellement dans son Espace modération n’expliquent pas suffisamment en détail la précision de l’examen manuel et les performances des systèmes automatisés. Pour favoriser l’examen de ses méthodes, Meta doit expliquer comment elle évalue la précision de l’examen manuel et les performances des systèmes automatisés dans la mise en application de sa politique sur les personnes et organisations dangereuses. Afin d’améliorer la transparence sur les performances des classificateurs, Meta doit partager certains indicateurs, tels que la précision (en indiquant le pourcentage de contenus correctement identifiés comme étant en infraction par rapport à tous les contenus signalés comme étant en infraction) et la mémorisation (en indiquant le pourcentage de contenus en infraction que le classificateur identifie comme étant en infraction par rapport à tous les contenus en infraction qui existent). Publier des informations sur la précision de l’examen manuel dans les différentes régions, et les performances des classificateurs dans les diverses langues, peut favoriser la responsabilité de Meta quant à ses obligations en matière de droits humains. Le Conseil réitère cependant ses recommandations précédentes et exhorte Meta à appliquer les modifications présentées.
75. Pour appliquer ses Standards de la communauté, Meta s’appuie sur des systèmes automatisés, notamment les classificateurs. Les modèles de classificateurs répartissent automatiquement les données en une ou plusieurs « catégories » (par exemple, en infraction ou pas en infraction) en fonction d’un ensemble de données de formation. Il est essentiel de comprendre le fonctionnement et la précision de ces systèmes pour évaluer comment Meta modère ses contenus à grande échelle. Meta fournit des informations de base sur la façon dont elle utilise ses systèmes automatisés pour détecter le contenu en infraction dans la section Mise en application de son Espace modération, et explique comment elle classe et sélectionne le contenu dans la section Fonctionnalités. Dans ses Rapports d’application des Standards de la communauté, elle publie déjà des informations sur le pourcentage de contenus qu’elle supprime avant qu’ils ne soient signalés (par exemple, grâce à une détection automatisée). Ces données montrent bien l’importance de la détection automatisée, mais ne fournissent pas d’indicateurs détaillés sur l’utilisation et la précision des systèmes automatisés de Meta, notamment sur les suppressions automatisées. Cet ensemble de recommandations vise à renforcer la transparence sur l’utilisation des algorithmes par Meta.
76. En réponse aux questions posées par le Conseil, Meta a expliqué que le classificateur relatif aux personnes et organisations dangereuses pour la « langue générale - arabe » entraîne un examen initial en vue de la mise en application en fonction des politiques de Meta. Les classificateurs doivent détecter le contenu susceptible d’enfreindre ces politiques. Le Conseil estime que Meta doit expliquer en détail à ses utilisateurs cette dépendance aux classificateurs dans la section Mise en application de l’Espace modération, conformément à ses décisions précédentes (voir la recommandation n° 3 du cas sur les Symptômes du cancer du sein et nudité ; recommandation n° 3 du cas sur le Dessin animé sur la police en Colombie. Il est notamment important d’assurer la transparence des conditions minimales de confiance approximatives afin d’agir ou non sur le contenu, et de l’envoyer dans la file d’attente (ajouter à une file d’attente) en vue d’un examen manuel, ainsi que des points à prendre en considération ou des facteurs qui déterminent ces scores.
77. Meta a expliqué que les tests qu’elle mène sur la précision ne portent pas sur les types d’infraction individuels dans la politique, mais se concentrent sur les taux de précision globaux sur l’ensemble d’un domaine de politique. Elle a déclaré « réaliser un suivi régulier des indicateurs et vérifier les taux de précision à grande échelle ». Le Conseil a auparavant expliqué que cela ne suffit pas à évaluer les performances de la mise en application des Standards de la communauté de Meta dans leur ensemble (voir la décision sur le collier de wampum). Les systèmes performants en moyenne pourraient obtenir des résultats médiocres dans des sous-catégories de contenu, comme le contenu qui utilise le terme « chahid », sur lesquelles des décisions incorrectes ont une incidence considérable sur les droits humains. Meta doit donc impérativement montrer qu’elle vérifie et atténue les éventuels effets négatifs de ses systèmes sur les droits humains avec toute la diligence raisonnable nécessaire, et qu’elle communique ses informations, autorisant ainsi l’examen de ces effets.
78. De nombreuses parties prenantes ont affirmé que les systèmes algorithmiques de Meta pour la mise en application ne tiennent pas compte du contexte, sont moins précises dans les autres langues que l’anglais, et ont un impact disproportionné contre les communautés musulmanes (voir les commentaires publics, par exemple PC-11190 – Brennan Centre).
79. Certaines parties prenantes ont recommandé à Meta de mettre définitivement un terme à l’automatisation pour modérer le terme « chahid », car cette pratique n’a généralement pas tenu compte du contexte jusqu’alors (voir les commentaires publics PC-11164 – SMEX, p. 4 ; PC-11157 – Palestine Institute for Public Diplomacy). D’autres ont indiqué que, étant donné les graves sanctions appliquées en cas d’infraction à la politique sur les personnes et organisations dangereuses, l’automatisation ne doit être utilisée que pour soumettre le contenu à un examen, mais pas pour le supprimer automatiquement (voir le commentaire public PC-11183 ECNL EFF, p. 4f). Les parties prenantes ont suggéré que toute publication utilisant « chahid » en vue d’évoquer une personne désignée doit « idéalement être examinée par une équipe de modération habituée au contexte local de la publication » (voir le commentaire public PC-11188 – Digital Rights Foundation, p. 2). Certaines ont indiqué que le contenu doit être identifié en fonction de la région géographique, afin que l’examen manuel et l’examen automatisé puissent mieux tenir compte du contexte (voir le commentaire public PC-11165 – Taraaz, p. 1). Elles ont également appelé Meta à apporter davantage d’informations sur la précision de sa mise en application automatisée et à investir davantage d’argent afin d’améliorer ses systèmes automatisés pour les langues autres que l’anglais (voir les commentaires publics PC-11164 – SMEX, p. 5 ; PC-11190 – Brennan Centre). Par ailleurs, elles ont demandé à Meta d’établir des rapports sur ses activités de modération de contenu « systématiquement dans toutes les langues, notamment en fournissant des données exhaustives sur les signalements des utilisateurs, le taux d’action, les types d’action, l’efficacité des techniques d’atténuation, les informations sur la formation et les taux d’appel » (voir le commentaire public PC-11196 – Integrity Institute).
80. Certains spécialistes ne partagent pas le même avis sur l’utilisation du terme « chahid » pour évoquer une entité désignée en tant que point de référence unique pour que les systèmes automatisés suppriment le contenu de la plateforme, mais ils encouragent à l’utiliser dans le cadre d’une approche de modération en plusieurs niveaux (par exemple, comme un signal pour que le contenu soit envoyé pour examen afin d’évaluer s’il observe les politiques de Meta, mais pas supprimé uniquement car il comporte cette référence).
81. Le Conseil reconnaît qu’il est nécessaire de s’appuyer sur des systèmes algorithmiques pour modérer le contenu à grande échelle, et qu’un grand nombre des approches proposées ne seraient pas opérables à grande échelle et par le biais de l’automatisation. Le Conseil conclut également néanmoins que Meta doit prendre d’autres mesures, notamment celles qui ont été recommandées précédemment, afin de garantir la transparence et l’équité de ces systèmes.
*Note de procédure :
Les avis consultatifs en matière de politique du Conseil de surveillance sont préparés par des groupes de cinq membres et approuvés par la majorité du Conseil. Les décisions du Conseil ne représentent pas nécessairement les opinions personnelles de tous les membres.
Pour cet avis consultatif en matière de politique, une étude indépendante a été commandée pour le compte du Conseil. Le Conseil était assisté d’un institut de recherche indépendant, dont le siège se trouve à l’université de Göteborg. Il avait mobilisé une équipe de plus de 50 experts en sciences sociales sur six continents ainsi que 3 200 experts nationaux du monde entier. Le Conseil a également bénéficié de l’aide de Duco Advisors, une société de conseil spécialisée dans la géopolitique, la confiance et la sécurité, ainsi que la technologie. Memetica, une organisation qui effectue des recherches open source sur les tendances des réseaux sociaux, a également fourni une analyse. L’entreprise Lionbridge Technologies, LLC, dont les spécialistes parlent couramment 350 langues et travaillent dans 5 000 villes du monde entier, a fourni son expertise linguistique.
Retour aux décisions de cas et aux avis consultatifs politiques