أسقط

العنف ضد المثليين في غرب أفريقيا

يشعر مجلس الإشراف بقلق بالغ إزاء فشل Meta في إزالة مقطع فيديو يظهر رجلين ويبدو أنهما تعرضا للضرب بزعم كونهما مثليين. في ظل إلغاء القرار الأصلي للشركة، يشير المجلس إلى أنه بالإبقاء على الفيديو على فيسبوك لمدة خمسة أشهر، كانت هناك مخاطرة تتمثل في إلحاق ضرر من خلال الكشف عن هوية الرجلين؛ وذلك بسبب البيئة العدائية تجاه مجتمع الميم في نيجيريا.

نوع القرار

معيار

السياسات والمواضيع

عنوان
المساواة بين الجنسين، عنف، مثليون

المناطق/البلدان

موقع
نيجيريا

منصة

منصة
Facebook

للاطلاع على القرار الكامل بلغة الإيجبو، انقر هنا.

Iji gụọ mkpebi ahụ n'uju n'asụsụ Igbo, pịa ebe a.

ملخص

يشعر مجلس الإشراف بقلق بالغ إزاء فشل Meta في إزالة مقطع فيديو يظهر رجلين ينزفان ويبدو أنهما تعرضا للضرب بزعم كونهما مثليين. وقد نُشِرَ المحتوى في نيجيريا التي تُجرِّم بدورها العلاقات الجنسية المثلية. في ظل إلغاء القرار الأصلي للشركة، يشير المجلس إلى أنه بالإبقاء على الفيديو على فيسبوك لمدة خمسة أشهر، كانت هناك مخاطرة تتمثل في إلحاق ضرر مباشر بالرجلين من خلال الكشف عن هوياتهم؛ وذلك بسبب البيئة العدائية تجاه مجتمع الميم في نيجيريا. فمثل هذا الضرر يكون مباشرًا، ويستحيل تقويضه. لقد ساهم المحتوى في مشاركة العنف والتمييز وسَخِر منهما، وانتهك أربعة معايير مجتمع مختلفة، وتم الإبلاغ عنه عدة مرات ومراجعته من قِبل ثلاثة مشرفين بشريين. وتكشف هذه الحالة عن إخفاقات منهجية فيما يتعلق بالإنفاذ. تتضمن توصيات المجلس دعوة لشركة Meta لتقييم مدى إنفاذ القاعدة ذات الصلة بموجب معيار تنسيق الأنشطة الضارة وترويج ارتكاب الجرائم. وتتناول أيضًا الإخفاقات التي من المحتمل أن تكون قد نشأت نتيجة تحديد Meta للغة الخطأ التي يتم التحدث بها في الفيديو وكيفية تعامل الشركة مع اللغات التي لا تدعمها لمراجعة المحتوى على نطاق واسع.

حول الحالة

نشر أحد مستخدمي فيسبوك في نيجيريا مقطع فيديو يظهر رجلين ينزفان ويبدو أنهما قد تم تقييدهما وضربهما. ويطرح الأشخاص المحيطون بالرجلين الخائفين أسئلة عليهما بإحدى اللغات الرئيسية في نيجيريا، وهي لغة الإيجبو. وأجاب أحد الرجلين بذكر اسمه، وأوضح، تحت الإكراه على ما يبدو، أنه تعرض للضرب بسبب ممارسة الجنس مع رجل آخر. وقام المستخدم الذي نشر هذا المحتوى بتضمين شرح توضيحي باللغة الإنجليزية يسخر فيه من الرجلين، مشيرًا إلى أنه تم القبض عليهما وهما يمارسان الجنس وأن هذا "مضحك" لأنهم متزوجان.

تمت مشاهدة الفيديو أكثر من 3.6 مليون مرة. وفي الفترة بين ديسمبر 2023 عندما تم نشره وفبراير 2024، أبلغ 92 مستخدمًا عن المحتوى، معظمهم بسبب العنف والتحريض أو الخطاب الذي يحض على الكراهية. وقرر مرجعان اثنان أن المحتوى لا ينتهك أيًا من معايير المجتمع؛ لذا ينبغي الإبقاء عليه على فيسبوك. وتقدَّم أحد المستخدمين بطعن إلى شركة Meta، ولكن بعد مراجعة بشرية أخرى، قررت الشركة مرة أخرى عدم وجود أي انتهاكات. وعندها، تقدَّم المستخدم بطعن إلى المجلس. وبعد أن لفت المجلس انتباه Meta إلى الحالة، قامت الشركة بإزالة المنشور بموجب سياسة تنسيق الأنشطة الضارة وترويج ارتكاب الجرائم.

تُجرِّم نيجيريا العلاقات المثلية، حيث يواجه مجتمع الميم تمييزًا وقيودًا صارمة بشأن حقوقهم الإنسانية.

أهم النتائج

تبيَّن للمجلس أن المحتوى ينتهك أربعة معايير مجتمع منفصلة، ​​بما في ذلك قاعدة تنسيق الأنشطة الضارة وترويج ارتكاب الجرائم التي لا تسمح بالتعرُّف على الأشخاص المزعوم أنهم أعضاء في مجموعة معرضة لخطر كشف الانتماء. إن اعتراف الرجل في الفيديو بممارسة الجنس مع رجل آخر هو اعتراف قسري، في حين أن الشرح التوضيحي يزعم صراحة أن الرجلين مثليان. كما انتهك المحتوى قواعد الخطاب الذي يحض على الكراهية والمضايقة والإساءة والمحتوى العنيف والصادم.

هناك قاعدتان بشأن كشف الانتماء بموجب سياسة تنسيق الأنشطة الضارة وترويج ارتكاب الجرائم. الأولى وثيقة الصلة هنا وهي مطبقة على نطاق واسع. وتحظُر: "كشف الانتماء: كشف هوية أو أماكن أي شخص يزعم أنه عضو في مجموعة معرضة لخطر كشف الانتماء". وهناك قاعدة مماثلة تُطبَّق فقط عندما يتم تصعيد المحتوى إلى خبراء Meta. ويشعر المجلس بالقلق من أن Meta لا توضح بشكل كافٍ الاختلافات بين قاعدتي كشف الانتماء وأن القاعدة المطبقة على نطاق واسع لا تنص علنًا على أن "كشف الانتماء" ينطبق على تحديد الأشخاص على أنهم من مجتمع الميم في الدول التي يوجد بها خطر أكبر للتعرض للأذى على أرض الواقع، مثل نيجيريا. وحاليًا، هذه المعلومات متاحة فقط في التوجيهات الداخلية. ويمكن أن يتسبب هذا الغموض في حدوث حالة من الحيرة، ومنع المستخدمين من الالتزام بالقواعد، وإعاقة الأشخاص المستهدفين بمثل هذا المحتوى المسيء من إزالة هذه المنشورات. وتحتاج Meta إلى تحديث قاعدتها العامة وتقديم أمثلة على المجموعات المعرضة لخطر كشف الانتماء.

تم الإبقاء على هذا المحتوى لمدة خمسة أشهر تقريبًا، على الرغم من انتهاك أربع قواعد مختلفة وإظهار العنف والتمييز. وقام المشرفون البشريون بمراجعة المحتوى وفشلوا في تحديد أنه ينتهك القواعد. وفي ظل الإبقاء على الفيديو، زادت احتمالات تعرُّف الأشخاص على الرجلين، وكذلك احتمالات تشجيع المنشور للمستخدمين على إيذاء أشخاص آخرين من مجتمع الميم في نيجيريا. وتمت إزالة الفيديو في النهاية، ولكن بحلول هذا الوقت، كان قد انتشر على نطاق واسع. وحتى بعد إزالته، يُظهر بحث المجلس أنه لا تزال هناك تسلسلات من نفس الفيديو موجودة على فيسبوك.

عندما سأل المجلس شركة Meta عن إجراءات الإنفاذ، اعترفت الشركة بوجود خطأين. أولاً، قامت أنظمتها الآلية التي تكتشف اللغة بتعريف المحتوى على أنه باللغة الإنجليزية، وذلك قبل إرساله إلى المراجعة البشرية، في حين أخطأت فِرَق Meta في التعرف على اللغة المنطوقة في الفيديو على أنها اللغة السواحلية. إلا أن اللغة الصحيحة هي لغة الإيجبو التي يتحدث بها الملايين في نيجيريا، ولكنها غير مدعومة من Meta بشأن الإشراف على المحتوى على نطاق واسع. إذا لم تكن اللغة مدعومة، كما في هذه الحالة، فسيتم إرسال المحتوى بدلاً من ذلك إلى المراجعين البشريين الذين يعملون عبر لغات متعددة ويعتمدون على الترجمات التي توفرها تقنيات Meta. وهو ما يثير مخاوف بشأن كيفية التعامل مع المحتوى باللغات غير المدعومة، واختيار اللغات التي تدعمها الشركة للمراجعة على نطاق واسع، ودقة الترجمات المقدمة للمراجعين الذين يعملون في لغات متعددة.

قرار مجلس الإشراف

ألغى مجلس الإشراف قرار شركة Meta الأصلي بإبقاء المحتوى.

يوصي المجلس Meta بما يلي:

  • تحديث الحظر الشامل لسياسة تنسيق الأنشطة الضارة وترويج ارتكاب الجرائم بشأن "كشف الانتماء" ليشمل أمثلة توضيحية لـ "المجموعات المعرضة لخطر كشف الانتماء"، بما في ذلك أفراد مجتمع الميم في الدول التي تُحظر فيها العلاقات المثلية و/أو تؤدي مثل عمليات الإفصاح هذه إلى مخاطر كبيرة على السلامة.
  • إجراء تقييم لمدى دقة إنفاذ الحظر الشامل لكشف هوية أو مواقع أي شخص يُزعم أنه عضو في مجموعة معرضة لخطر كشف الانتماء، وذلك بموجب معيار تنسيق الأنشطة الضارة وترويج ارتكاب الجرائم.
  • التأكد من أن أنظمة الكشف عن اللغة الخاصة التابعة لها تحدد بدقة المحتوى باللغات غير المدعومة، وتوفر ترجمات دقيقة لمثل هذا المحتوى لمراجعي اللغة المحايدين.
  • التأكد من توجيه المحتوى الذي يتضمن لغة غير مدعومة إلى المراجعة المحايدة، حتى لو تم دمجه مع اللغات المدعومة. ويشمل ذلك منح المراجعين خيار إعادة توجيه المحتوى الذي يحتوي على لغة غير مدعومة إلى المراجعة المحايدة.

* توفر ملخصات الحالة نظرة عامة على الحالات ولا تُشكّل سابقة قانونية.

القرار الكامل للمجلس بشأن الحالة

1. وصف الحالة ومعلومات أساسية عنها

في ديسمبر 2023، نشر أحد مستخدمي فيسبوك في نيجيريا مقطع فيديو يظهر رجلين واضحين للعيان ويبدو أنهما تعرَّضا للضرب. ويجلس الرجلان على الأرض وبجوارهما عمود وحبل؛ مما يشير إلى أنهم ربما كانا مقيدين وينزفان بشدة. ويطرح العديد من الأشخاص أسئلة على الرجلين بلغة الإيجبو التي تعد إحدى اللغات الرئيسية في نيجيريا. وأجاب أحد الرجلين بذكر اسمه، وأوضح، تحت الإكراه على ما يبدو، أنه تعرض للضرب لأنه كان يمارس الجنس مع رجل آخر. ويبدو كلا الرجلين خائفين بينما ركل أحد المارة أحدهما. وأضاف المستخدم الذي نشر الفيديو شرحًا توضيحيًا باللغة الإنجليزية يسخر فيه من الرجلين قائلاً إنه تم القبض عليهما وهما يمارسان الجنس وأن هذا "مضحك" لأن كلاهما متزوج.

تمت مشاهدة المحتوى أكثر من 3.6 مليون مرة، وحصل على 9000 تفاعل و8000 تعليق تقريبًا، كما تمت مشاركته 5000 مرة تقريبًا. وفي الفترة بين ديسمبر 2023 وفبراير 2024، أبلغ 92 مستخدمًا عن المحتوى 112 مرة، وكانت معظم هذه البلاغات بموجب سياسات Meta بشأن العنف والتحريض والخطاب الذي يحض على الكراهية. وراجع مشرفان بشريان اثنان العديد من البلاغات، وقد قررا أن المحتوى لا ينتهك أيًا من معايير المجتمع، وبالتالي يجب أن يظل المحتوى على فيسبوك. وبعد ذلك، تقدّم أحد المستخدمين بطعن على قرار Meta بإبقاء المحتوى. وبعد مراجعة بشرية أخرى، قررت الشركة مجددًا أن المحتوى لم ينتهك أيًا من قواعدها. وعندها، تقدَّم المستخدم بطعن إلى المجلس. وبعد أن لفت المجلس انتباه Meta إلى الحالة، في مايو 2024، راجعت الشركة المنشور بموجب تنسيق الأنشطة الضارة وترويج ارتكاب الجرائم لديها، وأزالته من فيسبوك. وبعد إزالة Meta للفيديو الأصلي، وبعد إجراء مزيد من البحث، حدد المجلس حالات مشابهة متعددة لنفس الفيديو تم الإبقاء عليها على المنصة، ويعود تاريخها إلى ديسمبر 2023، بما في ذلك مجموعات فيسبوك. وبعد أن قام المجلس بتمييز حالات مشابهة لنفس الفيديو تم الإبقاء عليها على المنصة، قامت Meta بإزالتها وإضافة الفيديو إلى بنك خدمات مطابقة الوسائط (MMS)، والذي يقوم تلقائيًا بتحديد وإزالة المحتوى الذي تم تصنيفه بالفعل على أنه مخالف. وعلى الرغم من أن هذا النوع من الانتهاك يمكن أن يؤدي إلى مخالفة قياسية ضد المستخدم الذي نشر المحتوى، إلا أن Meta لم تطبقه في هذه الحالة لأنه تم نشر الفيديو قبل أكثر من 90 يومًا من اتخاذ أي إجراء إنفاذ. وتنص سياسة Meta على أنها لا تطبق المخالفات القياسية على حسابات المستخدمين الذين مضى على انتهاكات المحتوى الذي ينشرونه أكثر من 90 يومًا.

أخذ المجلس في حسبانه السياق التالي عند التوصل إلى قراره بشأن هذه الحالة:

يواجه أفراد مجتمع الميم في نيجيريا وفي عدة مناطق أخرى من العالم العنف والتعذيب والسجن وحتى الموت بسبب ميلهم الجنسي وهويتهم الجنسانية، وذلك بالتزامن مع تزايد المشاعر المعادية لمجتمع الميم (راجع التعليق العام الصادر عن منظمة الخروج للعلن الدولية، PC-29658). إن التمييز ضد الأشخاص على أساس ميلهم الجنسي وهويتهم الجنسانية يُقيد من الحياة اليومية، ويؤثر على حقوق الإنسان والحريات الأساسية. وتفيد منظمة العفو الدولية بوجود 31 دولة في أفريقيا تُجرِّم العلاقات الجنسية المثلية. وتختلف العقوبات من السجن إلى العقوبة الجسدية. ولا يقتصر قانون حظر الزواج بين المثليين في نيجيريا على تجريم العلاقات المثلية فحسب، بل يحظر أيضًا إظهار المشاعر علنًا، ويقيد عمل المنظمات التي تدافع عن حقوق مجتمع الميم. بالإضافة إلى ذلك، لا تزال قوانين العصر الاستعماري وقوانين الأخلاق التي تحكم اللواط، والزنا والفحش مفروضة لتقييد حقوق أفراد مجتمع الميم، وهو ما يؤدي إلى نتائج مدمرة.

في تقرير صدر في 2024، أكد خبير الأمم المتحدة المستقل المعني بالحماية من العنف والتمييز على أساس الميل الجنسي والهوية الجنسانية على ما يلي: "أنفذت الدول في مختلف أنحاء العالم قوانين وسياسات قائمة أو فرضت تدابير جديدة، مشددة في بعض الأحيان، بغية الحد من حرية التعبير والتجمع السلمي وتكوين الجمعيات، والتي تستهدف على وجه التحديد الأشخاص على أساس الميل الجنسي والهوية الجنسانية"، (التقرير A/HRC/56/49، يوليو 2024، الفقرة 2).

ويمكن أن يخضع النشطاء والمنظمات الذين يدعمون مجتمعات الميم إلى قيود قانونية، ومضايقات واعتقالات تعسفية ومداهمات من الشرطة وعمليات إغلاق للنشاط، مع تهديدات بالعنف تُحبط الدعم العام لحقوق مجتمع الميم (راجع التعليق العام لشبكة المدافعين عن حقوق الإنسان في أفريقيا، PC-29657). وقد تعاني منظمات حقوق الإنسان من صعوبة في توثيق حالات سوء المعاملة والتمييز بسبب المخاوف من انتقام السلطات العامة والجهات الفاعلة غير التابعة للدولة، مثل الحراس والميليشيات. وقد يتم أيضًا استهداف الصحفيين الذين يغطون قضايا مجتمع الميم.

تعد وسائل التواصل الاجتماعي أداة أساسية لمنظمات حقوق الإنسان التي توثق انتهاكات وتجاوزات حقوق مجتمع الميم، وتدعو إلى توفير حماية أكثر قوة. ويشارك الأشخاص مقاطع الفيديو والشهادات والتقارير لرفع مستوى الوعي ومناصرة الحكومات لدعم معايير حقوق الإنسان (راجع التعليق العام لهيومن رايتس ووتش، PC-29659). بالإضافة إلى ذلك، قد تعمل المنصات كمراكز معلومات لتزويد الأشخاص بالتحديثات حول التطورات القانونية، بالإضافة إلى إمكانية الحصول على الدعم القانوني. ويشير البحث المستقل الذي أجراه المجلس إلى أن منصات وسائل التواصل الاجتماعي تلعب دورًا مهمًا لصالح أفراد مجتمع الميم في الدول ذات الأطر القانونية المقيدة. ويشير البحث إلى أن فيسبوك، على سبيل المثال، يسمح للمستخدمين بالتواصل، مثل الاتصال بشكل مجهول وفي مجموعات مغلقة، وذلك من أجل مشاركة الموارد في بيئة أكثر أمانًا من أرض الواقع.

أشار الخبراء الذين استشارهم المجلس إلى أن السلطات الرسمية في بعض الدول الأفريقية تستخدم أيضًا وسائل التواصل الاجتماعي لرصد وتقييد أنشطة المستخدمين الذين ينشرون محتوى خاصًا بمجتمع الميم. وأفاد الخبراء أنه قامت السلطات في نيجيريا بتقييد الوصول إلى المحتوى عبر الإنترنت حول قضايا مجتمع الميم. ووفقًا لمنظمة فريدم هاوس، طرحت نيجيريا تشريعات لتنظيم منصات التواصل الاجتماعي على نطاق أوسع، وهو ما قد يؤثر على حقوق مجتمع الميم عبر الإنترنت. وبالمثل، تفيد منظمة أكسس ناو، وهي منظمة للحقوق الرقمية، أن قوانين الجرائم الإلكترونية في غانا توفر للسلطات إمكانية إصدار طلبات الإزالة أو حظر المحتوى، وهو ما يمكن أن يقيد الخطاب العام حول قضايا مجتمع الميم، وكذلك حظر توثيق انتهاكات حقوق الإنسان، والمعلومات الحيوية للمجتمع.

تستهدف أيضًا الجهات الفاعلة غير الحكومية، بما في ذلك الحراس، أفراد مجتمع الميم بالاعتداءات الجسدية والعنف الغوغائي والإذلال والنبذ ​​العلني. فعلى سبيل المثال، في أغسطس 2024، تم العثور على مستخدم Tik-Tok متحول جنسيًا يُعرف باسم "Abuja Area Mama" ميتًا بعد تعرضه للضرب حتى الموت في العاصمة النيجيرية أبوجا، كما زُعم. ويمكن أن يكون أفراد مجتمع الميم أهدافًا للابتزاز من جانب أعضاء المجتمع الآخرين الذين يكتشفون ميلهم الجنسي وهويتهم الجنسانية. ووفقًا لهيومن رايتس ووتش، فإن الإطار القانوني في نيجيريا يشجع على العنف ضد الأشخاص من مجتمع الميم، مما يخلق بيئة من الإفلات من العقاب لأولئك الذين يرتكبون هذا العنف.

2. المعلومات المقدَّمة من المستخدمين

في بيانه أمام المجلس، ادعى المستخدم الذي أبلغ عن المحتوى أن الرجلين في الفيديو قد تعرضوا للضرب لمجرد كونهم مثليين. وذكر المستخدم أنه بالإبقاء على الفيديو، فإن Meta تسمح لمنصتها بأن تصبح أرضًا خصبة للكراهية ورهاب المثلية، وأنه لو كان الفيديو لحادثة في دولة غربية، لكان قد تمت إزالته.

3. سياسات المحتوى والمعلومات المقدمة من Meta

1. سياسات المحتوى لدى شركة Meta

سياسة تنسيق الأنشطة الضارة وترويج ارتكاب الجرائم

تهدف سياسة تنسيق أنشطة ضارة وترويج ارتكاب الجرائم إلى "منع وإعاقة حدوث السلوكيات الضارة والمقلَّدة على أرض الواقع" من خلال حظر كل ما ينطوي على "تسهيل أو تنظيم أو ترويج أو الإقرار ببعض الأنشطة الإجرامية أو الضارة التي تستهدف الأشخاص أو الأنشطة التجارية أو الممتلكات أو الحيوانات". هناك خطان للسياسة في معايير المجتمع يتناولان "كشف الانتماء". الأول يُطبَّق على نطاق واسع، والثاني يتطلب "سياقًا إضافيًا للإنفاذ" (مما يعني أنه لا يتم إنفاذ خط السياسة إلا بعد التصعيد). وينطبق خط السياسة الأول على هذه الحالة. ويحظُر على وجه التحديد "كشف الانتماء: كشف هوية أو أماكن أي شخص يزعم أنه عضو في مجموعة معرضة لخطر كشف الانتماء". ولا يوضح هذا الخط أي المجموعات تعتبر "مجموعات معرضة لخطر كشف الانتماء". أما خط السياسة الثاني، والذي لا يتم إنفاذه إلا عند التصعيد ولم يُطبَّق في هذه الحالة، فهو يحظر أيضًا "كشف الانتماء: كشف هوية الشخص وتعريضه لخطر الأذى" لقائمة محددة من الفئات الضعيفة، بما في ذلك أعضاء مجتمع الميم والنساء غير المحجبات والناشطين وسجناء الحرب.

وفقًا لتوجيهات Meta الداخلية لمراجعي المحتوى في خط السياسة الأول، يمكن أن يحدث الكشف عن الهوية من خلال استخدام المعلومات الشخصية مثل اسم الشخص أو صورته. وتتضمن إرشادات Meta الداخلية "المجموعات المعرضة لخطر كشف الانتماء"، بما في ذلك أفراد مجتمع الميم في الدول التي قد يحمل فيها الانتماء إلى مجموعة مخاطر مرتبطة بالسلامة الشخصية لأعضائها. وتنص أيضًا على أنه يجب أن يكون "كشف الانتماء" طوعيًا؛ فلا يستطيع الشخص أن يكشف عن نفسه (على سبيل المثال، من خلال الإعلان عن نفسه كعضو في مجموعة معرضة لخطر كشف الانتماء).

سياسة المحتوى العنيف والصادم

تنص سياسة المحتوى العنيف والصادم على أنه سيتم وضع بعض الصور المزعجة للأشخاص خلف شاشة تحذير. ويشمل ذلك: "صورًا تُظهر ارتكاب أعمال وحشية (مثل أعمال العنف أو التهديدات القاتلة ضد أشخاص مقيدين قسرًا) ضد شخص أو مجموعة أشخاص. ومع ذلك، إذا كان مثل هذا المحتوى مصحوبًا بـ "ملاحظات سادية"، فسيتم حذف المنشور. وتُعرَف الملاحظات السادية في قواعد المعلنة لعامة الجمهور على أنها "إبداء تعليق - مثل الشروح التوضيحية أو التعليقات - التي تعبر عن الفرح أو المتعة من معاناة أو إهانة الأشخاص أو الحيوانات".

سياسة المضايقة والإساءة

يهدف معيار المجتمع بشأن المضايقة والإساءة إلى منع استهداف الأشخاص على منصات Meta من خلال التهديدات ومختلف أشكال التواصل الضار، وأن مثل هذا السلوك "يمنع الأشخاص من الشعور بالأمان والاحترام". وتحظر السياسة المحتوى الذي يستهدف الأشخاص من خلال "الاحتفال أو السخرية من وفاتهم أو حالتهم الطبية". وتوضح إرشادات Meta الداخلية أن الحالة الطبية تشمل مرضًا خطيرًا أو عِلَّة أو إصابة.

سياسة الخطاب الذي يحض على الكراهية

تُعرِّف مبادئ سياسة Meta بشأن الخطاب الذي يحض على الكراهية على أنه هجوم مباشر ضد الأشخاص على أساس سمات تتمتع بحقوق حماية، بما في ذلك الميل الجنسي. ويحظُر المحتوى الذي يستهدف الأشخاص بشكل مكتوب أو مرئي، مثل: "السخرية من الفكرة أو الأحداث أو ضحايا جرائم الكراهية حتى في حالة عدم احتواء الصور على أشخاص حقيقيين". وتُعرِّف إرشادات Meta الداخلية جرائم الكراهية على أنها عمل إجرامي "يُرتكب بدافع متحيز ويستهدف الأشخاص على أساس [سماتهم التي تتمتع بحقوق حماية]".

2. المعلومات المقدَّمة من Meta

بعد اختيار المجلس لهذه الحالة، وجدت Meta أن المحتوى ينتهك سياسة تنسيق الأنشطة الضارة وترويج ارتكاب الجرائم لتحديد الأعضاء المزعومين في "مجموعة معرضة لخطر كشف الانتماء" في دولة قد يحمل فيها الانتماء إلى مثل هذه المجموعة مخاطر مرتبطة بالسلامة الشخصية لأعضائها. وأشارت Meta إلى أن الشرح التوضيحي للمستخدم يزعم أن الرجلين كانا مثليين، ومن المحتمل أن اعتراف أحدهما في الفيديو كان بالإكراه؛ مما يدل على أن "كشف الانتماء" من خلال الكشف عن هويتهم كان غير طوعي.

أدركت Meta أن المراجعين كانوا مخطئين في اكتشاف أن المنشور لم ينتهك أيًا من معايير المجتمع وحققت في سبب حدوث تلك الأخطاء. و في هذه الحالة، يبدو أن المراجعين قاموا بالتركيز فقط على سياسة المضايقة والإساءة المتعلقة "بالادعاءات حول المشاركة في علاقات رومانسية أو حول الميل الجنسي أو الهوية الجنسانية" ضد البالغين، ووجدوا أنه لم يتم انتهاك السياسة، دون النظر في الانتهاكات المحتملة الأخرى. وتتطلب هذه السياسة تطابُق اسم ووجه المستخدم الذي يُبلّغ عن المحتوى مع الشخص الموضح في المحتوى حتى تتم إزالته. وبما أن المستخدمين الذين أبلغوا عن المحتوى في هذه الحالة لم يتم تصويرهم في المحتوى، فقد قام المراجعون بتقييمه على أنه عدم انتهاك. وبعد التحقيق، اتخذت فِرق المراجعة البشرية في Meta خطوات إضافية لتحسين مستوى الدقة في تطبيق سياسة تنسيق الأنشطة الضارة وترويج ارتكاب الجرائم، وإرسال تذكيرات بالسياسة وإجراء اختبارات معرفية حول الكشف عن سياسة الأفراد المعرضين لمخاطر عالية بسبب كشف الانتماء.

أكدت Meta في ردها على أسئلة المجلس على أن المنشور انتهك أيضًا ثلاثة معايير مجتمع أخرى.

انتهك هذا المنشور سياسة المحتوى العنيف والصادم، حيث تضمن الفيديو ملاحظات سادية حول عمل "وحشي" مصور تعرَّض فيه الرجلان للقوة المفرطة أثناء وجودهما تحت سيطرة الحشود. وبدون الملاحظات السادية، لكان المحتوى قد تم تصنيفه على أنه مزعج بموجب هذه السياسة. لقد انتهك سياسة المضايقة والإساءة لأن الشرح التوضيحي يسخر من الرجلين من خلال الإشارة إلى موقفهما على أنه "مضحك" مع إظهار إصاباتهما الخطيرة. وفي النهاية، انتهك معيار الخطاب الذي يحض على الكراهية؛ وذلك نظرًا لأن الشرح التوضيحي يسخر من ضحايا جريمة كراهية، لا سيما الاعتداء والضرب بدافع التحيز ضد رجلين على أساس ميولهما الجنسية المفترضة.

أكدت شركة Meta في ردها على أسئلة المجلس أنها أجرت تحقيقات إضافية أدت إلى إزالة حالات مشابهة أخرى لنفس الفيديو. وتمت إضافة الفيديو إلى بنوك Meta لخدمات مطابقة الوسائط لمنع التحميلات المستقبلية للمحتوى.

أبلغت Meta أيضًا المجلس بأنها تستفيد من أنظمة الكشف عن اللغة والترجمة الآلية لتوفير الدعم للمحتوى بلغة الإيجبو من خلال المراجعة المحايدة على نطاق واسع. ويوجد لدى Meta عدد قليل من المتحدثين بلغة الإيجبو ممن يقدمون الخبرة اللغوية ومراجعة المحتوى للغة الإيجبو عند التصعيد (وليس على نطاق واسع). وتطلب الشركة من المراجعين البشريين لديها إتقان اللغة الإنجليزية و"لغة السوق المعنية بالنسبة لهم". وقبل التأكد من أن اللغة المستخدمة في الفيديو هي الإيجبو، أخطأت Meta في تحديد لغة الفيديو على أنها اللغة السواحلية أثناء عملها مع المجلس. وفي النهاية، أوضحت Meta أنه نظرًا لأن الشرح التوضيحي للمستخدم على الفيديو كان باللغة الإنجليزية، فقد حددت الأنظمة الآلية للشركة لغة المحتوى على أنها الإنجليزية، ووجهتها إلى المراجعين البشريين الناطقين باللغة الإنجليزية.

وقام المجلس بطرح 24 سؤلاً على Meta حول إنفاذ معيار المجتمع بشأن تنسيق الأنشطة الضارة وترويج ارتكاب الجرائم وسياسات المحتوى الأخرى، وإجراءات إنفاذ Meta في نيجيريا، واكتشاف Meta للغات المحتوى ومهام المراجعة البشرية، بالإضافة إلى الطلبات الحكومية وتدابير التخفيف التي اتخذتها الشركة لمنع الضرر. وقدَّمت Meta إجابات لجميع الأسئلة.

4. التعليقات العامة

تلقى مجلس الإشراف سبعة تعليقات عامة استوفت شروط إرسال التعليقات. وتم إرسال أربعة تعليقات من الولايات المتحدة وكندا، وتعليقين من أفريقيا جنوب الصحراء، وتعليق واحد من أوروبا. وللاطلاع على التعليقات العامة المقدمة التي وافق أصحابها على نشرها، انقر هنا.

تناولت التعليقات المقدمة الموضوعات التالية: العنف ضد أفراد مجتمع الميم في غرب أفريقيا من قِبل الجهات الحكومية وغير الحكومية، والمخاطر المرتبطة بكشف الميل الجنسي و/أو الهوية الجنسانية للأشخاص، وتأثير تجريم العلاقات المثلية على أفراد مجتمع الميم، وتأثير هذا التجريم والقوانين المحلية الأخرى في نيجيريا وغرب أفريقيا على نطاق أوسع، وعلى العمل الذي تقوم به منظمات حقوق الإنسان ومجموعات التأييد والصحفيين، وأهمية منصات Meta، ووسائل التواصل الاجتماعي على نطاق أوسع، في التواصل وحشد الأفراد وزيادة الوعي بين أفراد مجتمع الميم في نيجيريا وغرب إفريقيا.

5. تحليل مجلس الإشراف

قام المجلس بتحليل قرار Meta في هذه الحالة في ضوء سياسات المحتوى التي تتبعها الشركة، وقيمها، ومسؤولياتها تجاه حقوق الإنسان. كما أجرى المجلس تقييمًا للآثار التي تمثلها هذه الحالة فيما يتعلق بنهج Meta الأوسع في إدارة المحتوى.

5.1 الامتثال لسياسات المحتوى لدى Meta

1. قواعد المحتوى

تبيَّن للمجلس أن المحتوى ينتهك أربعة معايير مجتمع: تنسيق الأنشطة الضارة وترويج ارتكاب الجرائم، والخطاب الذي يحض على الكراهية، والمحتوى العنيف والصادم، والمضايقة والإساءة.

ينتهك المحتوى سياسة تنسيق الأنشطة الضارة وترويج ارتكاب الجرائم التي تحظر تعريف الأفراد الذين يُزعم أنهم أعضاء في مجموعة معرضة لخطر كشف الانتماء. ويتفق المجلس مع Meta على أن الفيديو يكشف هوية الرجلين رغماً عنهما، حيث يبدو أنهما تعرضا للضرب ويبدو عليهما الخوف. وبالتالي فإن قبول ممارسة الجنس مع رجل آخر هو أمر قسري وغير إرادي. بالإضافة إلى ذلك، يزعم الشرح التوضيحي للفيديو صراحةً أن الرجلين مثليان.

كما أنه ينتهك سياسة الخطاب الذي يحض على الكراهية التي تحظر المحتوى الذي يسخر من ضحايا جرائم الكراهية. وينقل الفيديو آثار العنف الذي تعرض له الرجلان، والذي يستمر في الفيديو حيث تظهر إصاباتهما بوضوح. ويوضح أحدهما أنهما تعرضا للضرب لأنهما مارسا الجنس مع بعضهما البعض، ويُظهر الشرح التوضيحي للفيديو بشكل أكبر أن التعدي والضرب الإجراميين كانا بدافع الميل الجنسي المفترض لهما. ونظرًا لأن الشرح التوضيحي للمنشور يسخر من ضحايا جريمة الكراهية هذه بالقول إنه من "المضحك" أنهما متزوجان على ما يبدو، يرى المجلس أنه يستوفي تعريف Meta لـ "السخرية".

ينتهك الشرح التوضيحي للمنشور أيضًا سياسة المضايقة والإساءة؛ وذلك لأنه يسخر من إصاباتهما الظاهرة ("حالة طبية") من خلال الإشارة إلى الموقف على أنه "مضحك".

في النهاية، تبيَّن للمجلس أن المحتوى ينتهك معيار المجتمع بشأن المحتوى العنيف والصادم أيضًا؛ وذلك لأنه يتضمن "ملاحظات سادية" نتيجة أعمال وحشية ضد الرجلين في سياق المعاناة والإذلال. وهذا في حد ذاته، ودون وجود انتهاكات أخرى للسياسة، يستدعي استخدام شاشة تحذيرية. ومع ذلك، نظرًا لأن الشرح التوضيحي يحتوي على "ملاحظات سادية" تسخر من أعمال العنف والاعتداء ضد الرجلين، فإن السياسة تستلزم إزالة المحتوى.

2. إجراء الإنفاذ

يشعر المجلس بالقلق بصفة خاصة من أن المحتوى الذي يصور مثل هذا العنف والتمييز البالغين وينتهك أربعة من معايير المجتمع، قد تم الإبقاء عليه لمدة خمسة أشهر تقريبًا، وأن تسلسلات نفس الفيديو ظلت على المنصة حتى بعد إزالة الفيديو الأصلي. وبعد نشره في ديسمبر 2023، تم الإبلاغ عن الفيديو 112 مرة من قِبَل 92 مستخدمًا مختلفًا، وفي ذلك الوقت حصدت هذه الحالة وحدها ملايين المشاهدات وآلاف التفاعلات. وقام ثلاثة مشرفين بشريين بمراجعة التقارير والطعون اللاحقة بشكل مستقل. وتوصل الثلاثة إلى عدم وجود انتهاكات، على ما يبدو لأنهم لم يراجعوا المنشورات وفقًا لجميع معايير المجتمع. وبالإضافة إلى ذلك، ربما لم يكن هؤلاء المراجعون على دراية بلغة الإيجبو أو لم يكن بمقدورهم إجراء مراجعة بشكل محايد نظرًا لأن أنظمة Meta الآلية حددت بشكل خاطئ لغة المحتوى على أنها الإنجليزية ووجهتها إلى المراجعين الناطقين باللغة الإنجليزية.

5.2 الامتثال لمسؤوليات شركة Meta تجاه حقوق الإنسان

تبيَّن للمجلس أن الإبقاء على المحتوى على المنصة كان غير متوافق مع مسؤوليات شركة Meta تجاه حقوق الإنسان في ضوء مبادئ الأمم المتحدة التوجيهية بشأن الأعمال التجارية وحقوق الإنسان (UNGPs). وفي عام 2021، أعلنت شركة Meta عن سياسة حقوق الإنسان الخاصة بالشركة، والتي أكدت فيها الشركة مجددًا التزامها باحترام حقوق الإنسان وفقًا لمبادئ الأمم المتحدة التوجيهية بشأن الأعمال التجارية وحقوق الإنسان. وبموجب المبدأ الإرشادي 13، ينبغي للشركات: "أن تتجنب التسبب في الآثار الضارة بحقوق الإنسان أو تساهم فيها من خلال الأنشطة التي تضطلع بها" وأن "تمنع أو تعالج الآثار الضارة بحقوق الإنسان التي ترتبط ارتباطًا مباشرًا بعملياتها أو منتجاتها أو خدماتها" حتى عندما لا تسهم في هذه الآثار.

في تفسير مبادئ الأمم المتحدة التوجيهية بشأن الأعمال التجارية وحقوق الإنسان، استخلص المجلس من توصية المقرر الخاص للأمم المتحدة المعني بحرية التعبير والرأي بأن شركات وسائل التواصل الاجتماعي يجب أن تأخذ في الاعتبار المعايير العالمية لحرية التعبير المنصوص عليها في المادتين 19 و20 من العهد الدولي الخاص بالحقوق المدنية والسياسية (ICCPR) (راجع الفقرات 44-48 من تقرير مقرر الأمم المتحدة الخاص المعني بحرية التعبير لعام 2018، A/HRC/38/35 والفقرة 41 من تقرير المقرر الخاص للأمم المتحدة المعني بحرية التعبير لعام 2019، A/74/486).

تنص الفقرة 2، المادة 20، من العهد الدولي الخاص بالحقوق المدنية والسياسية على أنه "تُحظر بالقانون أي دعوة إلى الكراهية القومية أو العنصرية أو الدينية تشكل تحريضاً على التمييز أو العداوة أو العنف". وهذا الحظر "يتوافق تمامًا مع الحق في حرية التعبير كما هو وارد في المادة 19 [العهد الدولي الخاص بالحقوق المدنية والسياسية]، والذي تنطوي ممارسته على واجبات ومسؤوليات خاصة"، ( التعليق العام رقم 11، (1983)، الفقرة 2). تعتبر خطة عمل الرباط بشأن حظر الدعوة إلى الكراهية القومية أو العنصرية أو الدينية التي تشكل تحريضا على التمييز أو العداء أو العنف بمثابة خريطة طريق هامة لتفسير المادة 20، الفقرة 2 ( A/HRC/22/17/Add.4‎‏، 2013، الفقرة 29). وتحدد ستة عوامل ذات صلة للدول لتحديد ما إذا كانت ستحظر حرية التعبير أم لن تحظرها: "السياق الاجتماعي والسياسي، وحالة المتحدث، والنية لتحريض الجمهور ضد مجموعة مستهدفة، والمحتوى وشكل الخطاب، ومدى نشر الخطاب، وأرجحية الضرر بما في ذلك الوشوك المحدق. ويستخدم المجلس هذه العوامل لتحديد مدى ضرورة وتناسب القيود التي تفرضها Meta على حرية التعبير. وفي هذه الحالة، يأخذ المجلس في الاعتبار نفس العوامل عند تقييم ما إذا كان يجب على Meta إزالة المحتوى نظرًا لمسؤولياتها تجاه حقوق الإنسان.

تبيَّن للمجلس أن قرار Meta الأصلي بالإبقاء على المحتوى على المنصة قد أدى إلى خطر إلحاق ضرر مباشر بالرجلين في الفيديو، مما يستلزم الإزالة. وفي دول مثل نيجيريا، حيث تؤدي المواقف المجتمعية وتجريم العلاقات المثلية إلى تأجيج العنف ضد المثليين، قد يتعرض أفراد مجتمع الميم الذين يظهرون على الإنترنت للعنف والتمييز على أرض الواقع. ومن المحتمل أن يكون إخفاق Meta في اتخاذ إجراء في الوقت المناسب بشأن هذا الفيديو، وهو ما سمح بمشاركته على نطاق واسع، قد ساهم في خلق تلك البيئة العدائية؛ مما خلق مخاطر للآخرين (راجع التعليق العام لهيومن رايتس ووتش، PC-29659). ويشير المجلس أيضًا إلى أن المنشور حصد عددًا كبيرًا من المشاهدات (أكثر من 3.6 مليون مشاهدة)؛ مما زاد من احتمالات تعرُّف الأشخاص على الرجلين الذين تم تصويرهما في الفيديو وتحريض المنشور للمستخدمين على إيذاء أفراد مجتمع الميم على نطاق أوسع. وعلاوة على ذلك، يسلط المجلس الضوء على العبارات السادية المصاحبة للفيديو، والتي تشير إلى نية المستخدم لفضح الرجلين وإذلالهما، وتحريض الآخرين على التمييز ضدهما وإلحاق الضرر بهما. ويشير عدد التفاعلات الكبير (حوالي 9000) والتعليقات (حوالي 8000) والمشاركات (حوالي 5000) إلى أن المستخدم تمكن من جذب تفاعل جمهوره؛ مما يزيد من احتمالية الأذى، سواء للرجلين الذين تم تصويرهما في الفيديو أو لأفراد مجتمع الميم في نيجيريا.

يجب أن تفي القيود المفروضة على حرية التعبير بناءً على الفقرة 2، المادة 20 من العهد الدولي الخاص بالحقوق المدنية والسياسية أيضًا بالاختبار الثلاثي الخاص بالمادة 19 من العهد ( التعليق العام رقم 34، الفقرة 50). ويتوصل التحليل التالي إلى أن إزالة المنشور كانت متوافقة مع المادة 19.

حرية التعبير (المادة 19 من العهد الدولي الخاص بالحقوق المدنية والسياسية)

تنص المادة 19 من العهد الدولي الخاص بالحقوق المدنية والسياسية على ضرورة توفير حماية واسعة النطاق لحرية التعبير، بما في ذلك التعبير السياسي ومناقشة حقوق الإنسان، بالإضافة إلى التعبير الذي يعتبر "مسيئًا للغاية" (التعليق العام رقم 34، (2011)، الفقرة 11، راجع أيضًا الفقرة 17 من تقرير 2019 لمقرر الأمم المتحدة الخاص المعني بحرية التعبير، A/74/486). وعند فرض الدولة لقيود على حرية التعبير، يجب أن تفي تلك القيود بمتطلبات الشرعية والهدف المشروع والضرورة والتناسب (الفقرة 3، المادة 19، العهد الدولي الخاص بالحقوق المدنية والسياسية). وتتم الإشارة إلى هذه المتطلبات غالبًا باسم "الاختبار الثلاثي". ويستخدم المجلس إطار العمل هذا لتفسير مسؤوليات Meta تجاه حقوق الإنسان تماشيًا مع مبادئ الأمم المتحدة التوجيهية بشأن الأعمال التجارية وحقوق الإنسان. ويقوم المجلس بذلك فيما يتعلق بالقرارات الفردية بشأن المحتوى الخاضع للمراجعة، وما يخبرنا به ذلك عن نهج Meta الأوسع تجاه إدارة المحتوى. وكما ذكر مقرر الأمم المتحدة الخاص المعني بحرية التعبير على الرغم من أن "الشركات لا تتحمل التزامات الحكومات، لكن تأثيرها يتطلب منها تقييم نفس النوع من الأسئلة المتعلقة بحماية حقوق مستخدميها في حرية التعبير،"( A/74/486، الفقرة 41).

بينما يشير المجلس إلى أن سياسات المحتوى المتعددة تنطبق على هذه الحالة، فإن تحليله الثلاثي يسلط الضوء على معيار مجتمع Meta بشأن تنسيق الأنشطة الضارة وترويج ارتكاب الجرائم، وذلك لأن هذه هي السياسة التي بموجبها قامت الشركة بإزالة المحتوى في النهاية.

1. الشرعية (وضوح القواعد وسهولة الوصول إليها)

يتطلب مبدأ الشرعية أن تكون القواعد التي تقيِّد حرية التعبير واضحة ويسهُل الوصول إليها، وأن تصاغ بدقة كافية لتمكين الأشخاص من ضبط سلوكهم تبعًا لها (التعليق العام رقم 34، الفقرة 25). وعلاوة على ذلك، فإن هذه القواعد "لا يجوز أن تمنح الأشخاص المسؤولين عن تنفيذها سلطة تقديرية مطلقة في تقييد حرية التعبير" ويجب أن "تنص على توجيهات كافية للمكلفين بتنفيذها لتمكينهم من التحقق على النحو المناسب من أنواع التعبير التي تخضع للتقييد وتلك التي لا تخضع لهذا التقييد،" (المرجع نفسه). وذكر مقرر الأمم المتحدة الخاص المعني بحرية التعبير أنه عند تطبيق ذلك على قيام الجهات الفاعلة الخاصة بحوكمة الخطاب على الإنترنت، يجب أن تكون القواعد واضحة ومحددة (A/HRC/38/35، الفقرة 46). إذ ينبغي أن يتمكن الأشخاص الذين يستخدمون منصات Meta من الوصول إلى هذه القواعد وفهمها كما ينبغي أن تتوافر لمراجعي المحتوى توجيهات واضحة فيما يتعلق بإنفاذها.

تبيَّن للمجلس أن الحظر الذي تفرضه Meta على "كشف انتماء" الأشخاص من خلال الكشف عن الهوية أو المواقع التابعة لأي فرد يُزعم أنه عضو في مجموعة معرضة لخطر كشف الانتماء ليس واضحًا بالشكل الكافي ولا يمكن للمستخدمين استخدامه كما ينبغي.

لا يقدم معيار المجتمع بشأن تنسيق الأنشطة الضارة وترويج ارتكاب الجرائم شرحًا للمستخدمين بالشكل الكافي لفهم قاعدتي "كشف الانتماء" المتشابهتين والتمييز بينهما. ويشعر المجلس بالقلق بصفة خاصة من أن معيار المجتمع لا يشرح بوضوح أن القاعدة واسعة النطاق التي تحظر "كشف الانتماء" تنطبق على تعريف الأشخاص على أنهم من مجتمع الميم في الدول التي يشير السياق المحلي فيها إلى مخاطر أعلى للضرر في أرض الواقع. وتتوفر هذه المعلومات فقط في الوقت الحالي في التوجيهات الداخلية للمراجعين؛ مما يجعل من المستحيل على المستخدمين معرفة أن الأشخاص الذين يُزعم أنهم ينتمون إلى مجموعات "معرضة لخطر" كشف الانتماء تتضمن أفرادًا من مجتمع الميم في دول محددة.

يشعر المجلس بالقلق من أن الغموض المحيط بسياسات Meta بشأن المحتوى الذي يكشف انتماء أفراد مجتمع الميم قد يؤدي إلى ارتباك المستخدم ويمنعه من الامتثال لقواعد المنصة. كما أنه يخلق عقبات أمام الأشخاص المستهدفين بمحتوى مسيء والذين يسعون إلى إزالة مثل هذه المنشورات. لذلك، ينبغي على شركة Meta تحديث خط سياسة تنسيق الأنشطة الضارة وترويج ارتكاب الجرائم الذي يحظر "كشف الانتماء"، والذي تفرضه الشركة على نطاق واسع، ليشمل أمثلة توضيحية للمجموعات المعرضة لخطر كشف الانتماء، بما في ذلك أفراد مجتمع الميم في دول محددة.

2. الهدف المشروع

ينبغي أيضًا أن تستند أي قيود مفروضة على حرية التعبير إلى واحد أو أكثر من الأهداف المشروعة الواردة في العهد الدولي الخاص بالحقوق المدنية والسياسية، والتي من بينها حماية حقوق الآخرين (الفقرة 3، المادة 19 من العهد الدولي الخاص بالحقوق المدنية والسياسية).

تخدم سياسة تنسيق الأنشطة الضارة وترويج ارتكاب الجرائم الهدف المشروع المتمثل في "منع وعرقلة الضرر على أرض الواقع"، بما في ذلك عن طريق حماية حقوق أفراد مجتمع الميم وأولئك الذين يُنظر إليهم على هذا النحو في الدول حول العالم حيث يتسبب "كشف الانتماء" في خطر على سلامتهم. وتشمل هذه الحقوق الحق في عدم التمييز (المادتان 2 و26 من العهد الدولي الخاص بالحقوق المدنية والسياسية)، بما في ذلك ممارسة حقهم في حرية التعبير والتجمع (المادتان 19 و21، العهد الدولي الخاص بالحقوق المدنية والسياسية)، والحق في الخصوصية (المادة 17، العهد الدولي الخاص بالحقوق المدنية والسياسية) والحق في الحياة (المادة 6، العهد الدولي الخاص بالحقوق المدنية والسياسية) والحرية والأمن (المادة 9، العهد الدولي الخاص بالحقوق المدنية والسياسية).

3. الضرورة والتناسب

بموجب المادة 19(3) من العهد الدولي الخاص بالحقوق المدنية والسياسية، فإن الضرورة والتناسب يتطلبان أن تكون القيود المفروضة على حرية التعبير "مناسبة لتحقيق وظيفة الحماية المنوطة بها، ويجب أن تكون أقل الوسائل تدخلاً مقارنة بغيرها من الوسائل التي يمكن أن تحقق النتيجة المنشودة؛ ويجب أن تكون متناسبة مع المصلحة التي ستحميها" (التعليق العام رقم 34، الفقرة 34).

تبيَّن للمجلس أن قرار Meta النهائي بإزالة المحتوى من المنصة كان ضروريًا ومتناسبًا. ويشير البحث الذي أجراه المجلس إلى أن أفراد مجتمع الميم في نيجيريا يتعرضون للعنف والاعتقالات التعسفية والمضايقات والابتزاز والتمييز ومخاطر العقوبات القانونية بشكل مستمر. ويصور المحتوى نفسه عواقب ما يبدو أنه عقوبة جسدية لعلاقة مثلية مزعومة. وبموجب هذه الظروف، يقرر المجلس أن الإنفاذ الدقيق للسياسات التي تهدف إلى حماية أفراد مجتمع الميم هو أمر بالغ الأهمية، خاصة في الدول التي تُجرِّم العلاقات المثلية. وبالنظر إلى هذه المخاطر، تبيَّن للمجلس أن إزالة المحتوى هي الوسيلة الأقل تدخلاً لتوفير الحماية للأشخاص "الذين كُشِفَ انتماءهم" في هذا السياق. كما أن الضرر الملحق بسبب "كشف الانتماء" هو ضرر مباشر ومن المستحيل تقويضه؛ ولا يمكن لمثل هذه التدابير أن تكون فعالة إلا إذا تم تنفيذها في الوقت المناسب.

يشعر المجلس بالقلق إزاء عدم قدرة Meta على تحديد المحتوى الضار بشكل واضح وإزالته، والذي يكشف قسريًا هويات الأشخاص المزعومين أنهم مثليين، الأمر الذي يؤدي بدوره إلى استدامة أجواء من الخوف لدى أفراد مجتمع الميم، ويعزز بيئة يتم فيها قبول وتطبيع استهداف المجموعات المهمشة (راجع التعليق العام بواسطة GLAAD، PC-29655). وعلى الرغم من أن المحتوى ينتهك أربعة معايير مجتمع مختلفة، وتم الإبلاغ عنه 112 مرة ومراجعته من قِبَل ثلاثة مشرفين مختلفين، إلا أنه بعد أن اختار المجلس الحالة للمراجعة، قامت Meta بإزالة المنشور وضمان إزالة المحتوى المماثل الذي يتضمن الفيديو. ويشعر المجلس بالقلق بصفة خاصة إزاء انتشار الفيديو، والذي تمت مشاهدته أكثر من 3.6 مليون مرة، وحصل على 9000 تفاعل و 8000 تعليق تقريبًا، وتمت مشاركته 5000 مرة تقريبًا خلال خمسة أشهر.

يدرك المجلس أنه من المتوقع حدوث أخطاء في الإنفاذ في الإشراف على المحتوى على نطاق واسع، ومع ذلك، تكشف توضيحات Meta في هذه الحالة عن إخفاقات منهجية. وفي حين اتخذت Meta خطوات إضافية لتحسين الدقة عند إنفاذ سياسة تنسيق الأنشطة الضارة وترويج ارتكاب الجرائم، وسَعَت إلى منع وقوع أخطاء مماثلة من خلال التدريبات الإضافية، لم تقدم تفاصيل حول التدابير المطبقة لضمان قيام المراجعين البشريين بتقييم المحتوى مقابل جميع سياسات Meta. وهو ما يعد مهمًا بصفة خاصة في هذه الحالة، حيث تمت مراجعة المحتوى بواسطة ثلاثة مشرفين ارتكبوا نفس الخطأ، وفشلوا في تقييم المنشور وفقًا لمعايير المجتمع الأخرى ذات الصلة. وهو ما يشير إلى أن أنظمة الإنفاذ في Meta لم تكن كافية.

تبيَّن المجلس أن خطأ Meta في الإنفاذ مثير للقلق بصفة خاصة بالنظر إلى السياق في نيجيريا التي تُجرِّم العلاقات المثلية. وسعيًا إلى تحسين إنفاذ سياساتها، بالإضافة إلى التدابير التي نشرتها الشركة بالفعل، يجب على Meta إجراء تقييم لدقة إنفاذ قاعدة تنسيق الأنشطة الضارة وترويج ارتكاب الجرائم التي تحظر المحتوى الذي يكشف انتماء الأشخاص من خلال الكشف عن هويتهم أو مواقعهم. وعلى أساس نتائج هذا التقييم، يجب على Meta بعد ذلك تحسين دقة إنفاذ السياسة، بما في ذلك من خلال التدريبات المحدثة لمراجعي المحتوى، نظرًا لأنه لا ينبغي أن يكون هناك تسامح مع هذا النوع من المحتوى.

فَحَصَ المجلس أيضًا ممارسات الإنفاذ الخاصة بشركة Meta في المناطق متعددة اللغات. وفي مراسلاتها مع المجلس، أخطأت Meta في البداية في تحديد لغة الفيديو على أنها سواحيلية، في حين أنها كانت في الواقع لغة الإيجبو. وأشارت Meta في ردها على سؤال من المجلس إلى أن لغة الإيجبو ليست لغة مدعومة للإشراف على المحتوى على نطاق واسع في السوق النيجيرية، حتى لو كانت الشركة توفر الدعم للإشراف على المحتوى بلغة الإيجبو من خلال المراجعة المحايدة. وبحسب Meta، فإن اللغة غير مدعومة نظرًا لانخفاض الطلب على الإشراف على المحتوى بلغة الإيجبو. ومع ذلك، أبلغت Meta المجلس أنه عندما يكون المحتوى بلغة غير مدعومة من قِبَل مراجعي الشركة على نطاق واسع، مثل الإيجبو، فإنه يتم توجيهه إلى المراجعين المحايدين للغة (المراجعون الذين يتعاملون مع المحتوى بلغات متعددة)، والذين يقومون بتقييم المحتوى على أساس على الترجمات التي تقدمها أنظمة الترجمة الآلية لشركة Meta. كما أبلغت شركة Meta المجلس أن لديها عددًا قليلًا من المتحدثين بلغة الإيجبو ممن يقدمون الخبرة اللغوية ومراجعة المحتوى للشركة، وإن لم يكن على نطاق واسع.

يقر المجلس بأن Meta لديها آليات تسمح بالإشراف على اللغات غير المدعومة، مثل المراجعة المحايدة للغة وعدد قليل من المتخصصين ذوي الخبرة في لغة الإيجبو. ومع ذلك، يشعر المجلس بالقلق أنه من خلال عدم مشاركة المراجعين البشريين الذين يتحدثون لغة الإيجبو في الإشراف على المحتوى بهذه اللغة على نطاق واسع، والتي يتحدث بها عشرات الملايين في نيجيريا والعالم، تتقلص قدرة الشركة على الإشراف على المحتوى بشكل فعال وتخفيف المخاطر المحتملة. وقد يؤدي ذلك إلى ضرر محتمل لحقوق المستخدم وسلامته، مثل ما تعرَّض له الرجلان في الفيديو في هذه الحالة. وفي ضوء التزاماتها في مجال حقوق الإنسان، يجب على Meta إعادة تقييم معاييرها لاختيار اللغات التي سيتم دعمها من قِبَل مراجعي الشركة على نطاق واسع لتحسين وضعها سعيًا إلى منع وتخفيف الأضرار المرتبطة باستخدام منصاتها.

علاوة على ذلك، أبلغت شركة Meta المجلس أن أنظمتها الآلية اكتشفت اللغة على أنها اللغة الإنجليزية، وذلك قبل توجيه المحتوى للمراجعة البشرية. وبحسب Meta، حدث ذلك بسبب أن الشرح التوضيحي الذي وضعه المستخدم للفيديو كان باللغة الإنجليزية. وعلى الرغم من أن الشرح التوضيحي كان باللغة الإنجليزية، إلا أن الفيديو بالكامل بلغة الإيجبو. واعترفت شركة Meta بأنها أخطأت في تحديد لغة المحتوى. ويشعر المجلس بالقلق إزاء التوجيه الخاطئ للمحتوى ثنائي اللغة؛ مما قد يؤدي إلى عدم الدقة في الإنفاذ.

للعمل على زيادة كفاءة ودقة مراجعة المحتوى باللغات غير المدعومة، يجب على Meta التأكد من أن أنظمتها لاكتشاف اللغة يمكنها تحديد المحتوى بدقة باللغات غير المدعومة وتوفير ترجمات دقيقة لهذا المحتوى لمراجعي اللغة المحايدين. ويجب أن تضمن Meta أيضًا توجيه هذا النوع من المحتوى دائمًا إلى المراجعين المحايدين للغة، حتى لو كان يحتوي على مزيج من اللغات المدعومة وغير المدعومة. إذ ينبغي على الشركة أيضًا منح المراجعين خيار إعادة توجيه المحتوى الذي يحتوي على لغة غير مدعومة إلى المراجعة المحايدة.

يشعر المجلس بقلق بالغ، إذ اكتشف البحث الذي أجراه عدم إزالة حالات مشابهة أخرى لنفس الفيديو يعود تاريخها إلى ديسمبر 2023، بما في ذلك في مجموعات فيسبوك، وذلك على الرغم من قيام Meta بإزالة المحتوى في هذه الحالة. وهو ما يشير إلى أن Meta يجب أن تأخذ على محمل الجد مسؤولياتها المتعلقة بالعناية الواجبة لاحترام حقوق الإنسان بموجب المبادئ التوجيهية للأمم المتحدة. ويرحب المجلس بحقيقة إضافة هذا الفيديو إلى بنك خدمات مطابقة الوسائط بهدف منع المزيد من عمليات التحميل، وذلك بعد أن أبلغ المجلس Meta بالتسلسلات الموجودة من الفيديو على فيسبوك. وبسبب خطورة الأضرار التي تلحق بحقوق الإنسان والناجمة عن استخدام منصات Meta في توزيع مقاطع فيديو من هذا النوع، يجب على Meta استغلال سياسة الإنفاذ الآلي بشكل كامل لإزالة المحتوى المخالف المماثل بشكل استباقي، بالإضافة إلى استخدام بنوك خدمات مطابقة الوسائط لمنع عمليات التحميل الجديدة.

6. قرار مجلس الإشراف

ألغى مجلس الإشراف قرار شركة Meta الأصلي بإبقاء المحتوى.

7. التوصيات

سياسة المحتوى

1. يجب على Meta تحديث الحظر الشامل لسياسة تنسيق الأنشطة الضارة وترويج ارتكاب الجرائم بشأن "كشف الانتماء" ليشمل أمثلة توضيحية لـ "المجموعات المعرضة لخطر كشف الانتماء"، بما في ذلك أفراد مجتمع الميم في الدول التي تُحظر فيها العلاقات المثلية و/أو تؤدي مثل عمليات الإفصاح هذه إلى مخاطر كبيرة على السلامة.

سيعتبر المجلس أن هذه التوصية قد دخلت حيز التنفيذ عندما تعكس الصيغة المعلنة لعامة الجمهور لسياسة تنسيق الأنشطة الضارة وترويج ارتكاب الجرائم التغيير المقترح.

الإنفاذ

2. لتحسين تنفيذ سياستها، يجب على Meta إجراء تقييم لمدى دقة إنفاذ الحظر الشامل لكشف هوية أو مواقع أي شخص يُزعم أنه عضو في مجموعة معرضة لخطر كشف الانتماء، وذلك بموجب معيار تنسيق الأنشطة الضارة وترويج ارتكاب الجرائم.

سيعتبر المجلس أن هذه التوصية قد دخلت حيز التنفيذ عندما تشارك Meta علنًا نتائج التقييم وتوضح كيف تنوي تحسين دقة إنفاذ هذه السياسة.

3. للعمل على زيادة كفاءة ودقة مراجعة المحتوى باللغات غير المدعومة، يجب أن تضمن Meta أن أنظمتها لاكتشاف اللغة تُحدد المحتوى بدقة باللغات غير المدعومة وتوفير ترجمات دقيقة لهذا المحتوى لمراجعي اللغة المحايدين.

سيعتبر المجلس أن هذه التوصية قد دخلت حيز التنفيذ عندما تشارك Meta بيانات تشير إلى زيادة الدقة في توجيه ومراجعة المحتوى باللغات غير المدعومة.

4. يجب أن تضمن Meta توجيه المحتوى الذي يتضمن لغة غير مدعومة إلى المراجعة المحايدة، حتى لو كان ممزوجًا باللغات المدعومة. ويشمل ذلك منح المراجعين خيار إعادة توجيه المحتوى الذي يحتوي على لغة غير مدعومة إلى المراجعة المحايدة.

سيعتبر المجلس أن هذه الوصية قد دخلت حيز التنفيذ عندما تزود Meta المجلس ببيانات حول التنفيذ الناجح لخيار التوجيه هذا للمراجعين.

*ملاحظة إجرائية:

  • يتم اتخاذ قرارات مجلس الإشراف من قِبَل لجان مكونة من خمسة أعضاء ويتم الموافقة عليها بأغلبية أصوات المجلس بالكامل. ولا يلزم بالضرورة أن تُعبّر قرارات المجلس عن وجهات النظر لجميع الأعضاء.
  • بموجب اتفاقية المجلس، يجوز لمجلس الإشراف مراجعة الطعون المقدمة من المستخدمين الذين قامت Meta بإزالة محتواهم، والطعون المقدمة من المستخدمين الذين أبلغوا عن محتوى قامت Meta بتركه، والقرارات التي أحالتها Meta إليه (المادة 2، القسم 1 من اتفاقية المجلس). وللمجلس سلطة مُلزمة تخوله من تأييد أو إلغاء القرارات التي تتخذها Meta بشأن المحتوى (المادة 3، القسم 5؛ المادة 4 من اتفاقية المجلس). ويجوز للمجلس إصدار توصيات غير ملزمة يجب على شركة Meta الرد عليها (المادة 3، القسم 4، المادة 4). وعندما تلتزم Meta بتنفيذ التوصيات، يراقب المجلس هذا التنفيذ.
  • بالنسبة إلى القرار المتخذ بشأن هذه الحالة، تم إجراء بحث مستقل نيابةً عن المجلس. وقد تلقى المجلس مساعدة من شركة Duco Advisors، وهي شركة تركز على نقطة التقاء الجغرافيا السياسية والثقة والأمان والتكنولوجيا. وقد تم تقديم أبحاث أيضًا بواسطة مجموعة Memetica، وهي مجموعة متخصصة في التحقيقات الرقمية تقدم خدمات استشارية بشأن المخاطر وخدمات استخباراتية بشأن التهديدات للتخفيف من حدة الأضرار على الإنترنت. تم توفير الخبرة اللغوية بواسطة شركة Lionbridge Technologies LLC، التي يتقن المتخصصون بها أكثر من 350 لغة ويعملون من 5000 مدينة في جميع أنحاء العالم.

العودة إلى قرارات الحالة والآراء الاستشارية المتعلقة بالسياسة