العنف ضد المثليين في غرب أفريقيا

يشعر مجلس الإشراف بقلق بالغ إزاء فشل Meta في إزالة مقطع فيديو يظهر رجلين ينزفان ويبدو أنهما تعرضا للضرب بزعم كونهما مثليين. وقد نُشِرَ المحتوى في نيجيريا التي تُجرِّم بدورها العلاقات الجنسية المثلية. في ظل إلغاء القرار الأصلي للشركة، يشير المجلس إلى أنه بالإبقاء على الفيديو على فيسبوك لمدة خمسة أشهر، كانت هناك مخاطرة تتمثل في إلحاق ضرر مباشر بالرجلين من خلال الكشف عن هوياتهم؛ وذلك بسبب البيئة العدائية تجاه مجتمع الميم في نيجيريا. فمثل هذا الضرر يكون مباشرًا، ويستحيل تقويضه. لقد ساهم المحتوى في مشاركة العنف والتمييز وسَخِر منهما، وانتهك أربعة معايير مجتمع مختلفة، وتم الإبلاغ عنه عدة مرات ومراجعته من قِبل ثلاثة مشرفين بشريين. وتكشف هذه الحالة عن إخفاقات منهجية فيما يتعلق بالإنفاذ. تتضمن توصيات المجلس دعوة لشركة Meta لتقييم مدى إنفاذ القاعدة ذات الصلة بموجب معيار تنسيق الأنشطة الضارة وترويج ارتكاب الجرائم. وتتناول أيضًا الإخفاقات التي من المحتمل أن تكون قد نشأت نتيجة تحديد Meta للغة الخطأ التي يتم التحدث بها في الفيديو وكيفية تعامل الشركة مع اللغات التي لا تدعمها لمراجعة المحتوى على نطاق واسع.

حول الحالة

نشر أحد مستخدمي فيسبوك في نيجيريا مقطع فيديو يظهر رجلين ينزفان ويبدو أنهما قد تم تقييدهما وضربهما. ويطرح الأشخاص المحيطون بالرجلين الخائفين أسئلة عليهما بإحدى اللغات الرئيسية في نيجيريا، وهي لغة الإيجبو. وأجاب أحد الرجلين بذكر اسمه، وأوضح، تحت الإكراه على ما يبدو، أنه تعرض للضرب بسبب ممارسة الجنس مع رجل آخر. وقام المستخدم الذي نشر هذا المحتوى بتضمين شرح توضيحي باللغة الإنجليزية يسخر فيه من الرجلين، مشيرًا إلى أنه تم القبض عليهما وهما يمارسان الجنس وأن هذا "مضحك" لأنهم متزوجان.

تمت مشاهدة الفيديو أكثر من 3.6 مليون مرة. وفي الفترة بين ديسمبر 2023 عندما تم نشره وفبراير 2024، أبلغ 92 مستخدمًا عن المحتوى، معظمهم بسبب العنف والتحريض أو الخطاب الذي يحض على الكراهية. وقرر مرجعان اثنان أن المحتوى لا ينتهك أيًا من معايير المجتمع؛ لذا ينبغي الإبقاء عليه على فيسبوك. وتقدَّم أحد المستخدمين بطعن إلى شركة Meta، ولكن بعد مراجعة بشرية أخرى، قررت الشركة مرة أخرى عدم وجود أي انتهاكات. وعندها، تقدَّم المستخدم بطعن إلى المجلس. وبعد أن لفت المجلس انتباه Meta إلى الحالة، قامت الشركة بإزالة المنشور بموجب سياسة تنسيق الأنشطة الضارة وترويج ارتكاب الجرائم.

تُجرِّم نيجيريا العلاقات المثلية، حيث يواجه مجتمع الميم تمييزًا وقيودًا صارمة بشأن حقوقهم الإنسانية.

أهم النتائج

تبيَّن للمجلس أن المحتوى ينتهك أربعة معايير مجتمع منفصلة، ​​بما في ذلك قاعدة تنسيق الأنشطة الضارة وترويج ارتكاب الجرائم التي لا تسمح بالتعرُّف على الأشخاص المزعوم أنهم أعضاء في مجموعة معرضة لخطر كشف الانتماء. إن اعتراف الرجل في الفيديو بممارسة الجنس مع رجل آخر هو اعتراف قسري، في حين أن الشرح التوضيحي يزعم صراحة أن الرجلين مثليان. كما انتهك المحتوى قواعد الخطاب الذي يحض على الكراهية والمضايقة والإساءة والمحتوى العنيف والصادم.

هناك قاعدتان بشأن كشف الانتماء بموجب سياسة تنسيق الأنشطة الضارة وترويج ارتكاب الجرائم. الأولى وثيقة الصلة هنا وهي مطبقة على نطاق واسع. وتحظُر: "كشف الانتماء: كشف هوية أو أماكن أي شخص يزعم أنه عضو في مجموعة معرضة لخطر كشف الانتماء". وهناك قاعدة مماثلة تُطبَّق فقط عندما يتم تصعيد المحتوى إلى خبراء Meta. ويشعر المجلس بالقلق من أن Meta لا توضح بشكل كافٍ الاختلافات بين قاعدتي كشف الانتماء وأن القاعدة المطبقة على نطاق واسع لا تنص علنًا على أن "كشف الانتماء" ينطبق على تحديد الأشخاص على أنهم من مجتمع الميم في الدول التي يوجد بها خطر أكبر للتعرض للأذى على أرض الواقع، مثل نيجيريا. وحاليًا، هذه المعلومات متاحة فقط في التوجيهات الداخلية. ويمكن أن يتسبب هذا الغموض في حدوث حالة من الحيرة، ومنع المستخدمين من الالتزام بالقواعد، وإعاقة الأشخاص المستهدفين بمثل هذا المحتوى المسيء من إزالة هذه المنشورات. وتحتاج Meta إلى تحديث قاعدتها العامة وتقديم أمثلة على المجموعات المعرضة لخطر كشف الانتماء.

تم الإبقاء على هذا المحتوى لمدة خمسة أشهر تقريبًا، على الرغم من انتهاك أربع قواعد مختلفة وإظهار العنف والتمييز. وقام المشرفون البشريون بمراجعة المحتوى وفشلوا في تحديد أنه ينتهك القواعد. وفي ظل الإبقاء على الفيديو، زادت احتمالات تعرُّف الأشخاص على الرجلين، وكذلك احتمالات تشجيع المنشور للمستخدمين على إيذاء أشخاص آخرين من مجتمع الميم في نيجيريا. وتمت إزالة الفيديو في النهاية، ولكن بحلول هذا الوقت، كان قد انتشر على نطاق واسع. وحتى بعد إزالته، يُظهر بحث المجلس أنه لا تزال هناك تسلسلات من نفس الفيديو موجودة على فيسبوك.

عندما سأل المجلس شركة Meta عن إجراءات الإنفاذ، اعترفت الشركة بوجود خطأين. أولاً، قامت أنظمتها الآلية التي تكتشف اللغة بتعريف المحتوى على أنه باللغة الإنجليزية، وذلك قبل إرساله إلى المراجعة البشرية، في حين أخطأت فِرَق Meta في التعرف على اللغة المنطوقة في الفيديو على أنها اللغة السواحلية. إلا أن اللغة الصحيحة هي لغة الإيجبو التي يتحدث بها الملايين في نيجيريا، ولكنها غير مدعومة من Meta بشأن الإشراف على المحتوى على نطاق واسع. إذا لم تكن اللغة مدعومة، كما في هذه الحالة، فسيتم إرسال المحتوى بدلاً من ذلك إلى المراجعين البشريين الذين يعملون عبر لغات متعددة ويعتمدون على الترجمات التي توفرها تقنيات Meta. وهو ما يثير مخاوف بشأن كيفية التعامل مع المحتوى باللغات غير المدعومة، واختيار اللغات التي تدعمها الشركة للمراجعة على نطاق واسع، ودقة الترجمات المقدمة للمراجعين الذين يعملون في لغات متعددة.

قرار مجلس الإشراف

ألغى مجلس الإشراف قرار شركة Meta الأصلي بإبقاء المحتوى.

ويوصى المجلس Meta بما يلي:

  • تحديث الحظر الشامل لسياسة تنسيق الأنشطة الضارة وترويج ارتكاب الجرائم بشأن "كشف الانتماء" ليشمل أمثلة توضيحية لـ "المجموعات المعرضة لخطر كشف الانتماء"، بما في ذلك أفراد مجتمع الميم في الدول التي تُحظر فيها العلاقات المثلية و/أو تؤدي مثل عمليات الإفصاح هذه إلى مخاطر كبيرة على السلامة.
  • إجراء تقييم لمدى دقة إنفاذ الحظر الشامل لكشف هوية أو مواقع أي شخص يُزعم أنه عضو في مجموعة معرضة لخطر كشف الانتماء، وذلك بموجب معيار تنسيق الأنشطة الضارة وترويج ارتكاب الجرائم.
  • التأكد من أن أنظمة الكشف عن اللغة الخاصة التابعة لها تحدد بدقة المحتوى باللغات غير المدعومة، وتوفر ترجمات دقيقة لمثل هذا المحتوى لمراجعي اللغة المحايدين.
  • التأكد من توجيه المحتوى الذي يتضمن لغة غير مدعومة إلى المراجعة المحايدة، حتى لو تم دمجه مع اللغات المدعومة. ويشمل ذلك منح المراجعين خيار إعادة توجيه المحتوى الذي يحتوي على لغة غير مدعومة إلى المراجعة المحايدة.

لمزيد من المعلومات

To read public comments for this case, click here.

العودة إلى الأخبار