مجلس الإشراف يلغي قرار Meta المتعلق بحالة فيديو أسير قوات الدعم السريع السودانية
تم النشر بتاريخ 11 نَيْسان 2024
ألغى مجلس الإشراف قرار Meta الأصلي بالإبقاء على مقطع فيديو يظهر به رجال مسلحون من قوات الدعم السريع في السودان وهم يحتجزون أحد الأشخاص في الجزء الخلفي من مركبة عسكرية. وينتهك الفيديو كلاً من معيار المجتمع المتعلق بالمنظمات الخطرة والأفراد الخطرين ومعيار المجتمع المتعلق بتنسيق الأنشطة الضارة وترويج ارتكاب الجرائم. ويشعر المجلس بالقلق من أن Meta لم تقم بإزالة المحتوى - الذي يظهر به أسير حرب وينطوي على دعم مجموعة صنّفتها الشركة على أنها خطرة - بالسرعة الكافية. وهو ما يشير إلى مشكلات أوسع تتعلق بكل من اتخاذ إجراءات الإنفاذ بشكل فعّال تجاه المحتوى أثناء النزاعات المسلحة وكيفية مراجعة المحتوى الذي يكشف هوية أسرى الحرب ("كشف الهوية"). يدعو المجلس Meta إلى تطوير حل قابل للتنفيذ على نطاق واسع لتحديد المحتوى الذي يكشف هوية أسرى الحرب أثناء النزاع المسلح بشكل استباقي.
حول هذه الحالة
في 27 أغسطس 2023، نشر أحد مستخدمي فيسبوك مقطع فيديو لرجال مسلحين يحتجزون شخصًا ما في الجزء الخلفي من مركبة عسكرية في السودان. يظهر رجل يتحدث باللغة العربية يُعرّف نفسه على أنه عضو في قوات الدعم السريع ويدعي أن المجموعة ألقت القبض على مواطن أجنبي، من المحتمل أن يكون مقاتلًا مرتبطًا بالقوات المسلحة السودانية. ويواصل الرجل القول إنهم سيسلمونه إلى قيادة قوات الدعم السريع، وأنهم يعتزمون العثور على قادة القوات المسلحة السودانية والقبض عليهم بالإضافة إلى أي من المنتسبين الأجانب للقوات المسلحة السودانية في السودان. ويتضمن الفيديو عبارات مهينة لمواطنين أجانب وقادة دول أخرى يدعمون القوات المسلحة السودانية، بينما يقول الشرح التوضيحي باللغة العربية: "نحن نعلم بوجود أجانب يقاتلون جنبًا إلى جنب مع كتائب الإخوان الشيطانية".
في أبريل 2023، اندلع صراع مسلح في السودان بين قوات الدعم السريع شبه العسكرية والقوات المسلحة السودانية، وهي القوة العسكرية الرسمية للحكومة. وعلى إثر ذلك الصراع، نزح ما يقرب من 7.3 مليون شخص، ويواجه أكثر من 25 مليون شخص حالة شديدة من انعدام الأمن الغذائي. وقد أفادت منظمات حقوقية سودانية أن قوات الدعم السريع احتجزت أكثر من 5000 شخص، وأبقتهم في ظروف غير إنسانية. وهناك تقارير تفيد بارتكاب كلا الجانبين جرائم حرب وجرائم ضد الإنسانية. وقد صنّفت Meta قوات الدعم السريع بموجب معيار مجتمعها المتعلق بالمنظمات الخطرة والأفراد الخطرين.
بعد وقت قصير من نشر الفيديو، أبلغ ثلاثة من مستخدمي فيسبوك عن المحتوى، ولكن بسبب انخفاض الخطورة (احتمال انتهاك معايير المجتمع) وانخفاض معدل الانتشار (عدد المشاهدات)، لم تحصل البلاغات على أولوية المراجعة البشرية ومن ثم ظل المحتوى على المنصة. تقدم أحد المستخدمين بطعن ولكن تم إغلاق هذا البلاغ بسبب سياسات الأتمتة التي اتبعتها Meta نتيجة لانتشار فيروس كورونا (كوفيد-١٩). وتقدم المستخدم نفسه في أعقاب ذلك بطعن إلى مجلس الإشراف. وبعد أن لفت المجلس انتباه Meta إلى الحالة، أزالت الشركة منشور فيسبوك بموجب معيار المجتمع المتعلق بالمنظمات الخطرة والأفراد الخطرين، وطبقت أيضًا إنذارًا قياسيًا وإنذارًا شديدًا على الملف الشخصي لناشر الفيديو.
النتائج الرئيسية
ينتهك المحتوى معيار مجتمع Meta المتعلق بالمنظمات الخطرة والأفراد الخطرين لأنه يحتوي على دعم لمجموعة صنّفتها الشركة كمنظمة خطرة من الفئة الأولى - وعلى وجه التحديد من خلال "توجيه المعلومات أو الموارد، بما في ذلك الاتصالات الرسمية" نيابة عن تلك المنظمة. ويعرّف الرجل الذي يتحدث في الفيديو نفسه بأنه أحد أفراد قوات الدعم السريع، ويصف أنشطتها، ويتحدث عن الإجراءات التي تتخذها المجموعة ويذكر بشكل مباشر اسم قائد قوات الدعم السريع، محمد حمدان دقلو. ويرى المجلس أن إزالة هذا المحتوى، الذي ينطوي على تهديدات لأي شخص يعارض قوات الدعم السريع أو يتحداها، أمر ضروري ومتناسب.
أكد المجلس في قرارات سابقة على مخاوفه بشأن الافتقار إلى الشفافية فيما يتعلق بقائمة Meta للمنظمات والأفراد المصنّفين. وبالنظر إلى الوضع في السودان، حيث تتمتع قوات الدعم السريع بنفوذ أو سيطرة فعلية على أجزاء من البلاد، قد يتعرض المدنيون الذين يعتمدون على فيسبوك للحصول على معلومات أمنية وإنسانية مهمة، بما في ذلك قنوات الاتصالات الخاصة بقوات الدعم السريع، إلى خطر أكبر عند فرض قيود على قنوات الاتصال تلك.
بالإضافة إلى ذلك، يرى المجلس أن هذا المحتوى ينتهك سياسة تنسيق الأنشطة الضارة وترويج ارتكاب الجرائم لأنه يُظهر رجلاً أسيرًا مرئيًا بالكامل يصفه الفيديو بأنه "أسير أجنبي" يرتبط بالقوات المسلحة السودانية. ولا تسمح سياسة Meta بالكشف عن هوية أسرى الحرب أثناء النزاعات المسلحة. وتعد إزالة الفيديو ضرورية بموجب القواعد المحددة في القانون الإنساني الدولي وذلك لحماية المحتجزين في النزاعات المسلحة. ويشعر المجلس بالقلق من عدم التعرف على هذا المحتوى وإزالته لانتهاكه قاعدة Meta التي تحظر كشف هوية أسرى الحرب. ويحتمل أن يرجع الافتقار إلى الإنفاذ هذا إلى عدم تطبيق هذه القاعدة حاليًا إلا عند التصعيد فقط، مما يعني أن المراجعين البشريين الذين يشرفون على المحتوى على نطاق واسع لا يمكنهم اتخاذ الإجراء بأنفسهم. وفي الواقع، لا يمكن تطبيق هذه القاعدة إلا إذا تم لفت انتباه فرق Meta التي تعمل عند التصعيد إلى المحتوى من خلال وسائل أخرى، على سبيل المثال، من خلال الشركاء الموثوق بهم أو إذا كان المحتوى يحظى بتغطية صحفية كبيرة.
أخيرًا، يشعر المجلس أيضًا بالقلق من إخفاق Meta في إزالة هذا المحتوى فور نشره أو بعد وقت قصير من نشره. لم تنجح أنظمة Meta التلقائية في اكتشاف الانتهاك في هذا الفيديو بشكل صحيح، مما يشير إلى مشكلة أوسع تتعلق بالإنفاذ. يرى المجلس أنه يجب إجراء تغييرات للسماح بإخضاع المزيد من المحتوى الذي يدعم المنظمات الخطرة للمراجعة البشرية عندما يتعلق الأمر بالنزاعات المسلحة.
قرار مجلس الإشراف
ألغى مجلس الإشراف قرار Meta الأصلي بترك الفيديو.
ويوصى المجلس Meta بما يلي:
- تطوير حل يمكن تنفيذه على نطاق واسع لإنفاذ سياسة تنسيق الأنشطة الضارة وترويج ارتكاب الجرائم من شأنه حظر كشف هوية أسرى الحرب في سياق النزاعات المسلحة. ويجب تكليف فريق متخصص لترتيب الأولويات واكتشاف المحتوى الذي يكشف هوية أسرى الحرب أثناء النزاعات بشكل استباقي.
- مراجعة بيانات التدريب المستخدمة في أداة تصنيف فهم محتوى الفيديو لتقييم احتوائها على القدر الكافي من النماذج المتنوعة للمحتوى الذي يدعم المنظمات المصنّفة في سياق النزاعات المسلحة، بما في ذلك اللغات واللهجات والمناطق والنزاعات المختلفة.
- تضمين رابط إلى القوائم الأمريكية للمنظمات الإرهابية الأجنبية والإرهابيين العالميين المصنّفين تحديدًا، متى تم ذِكر هذه القوائم.
لمزيد من المعلومات
للاطلاع على القرار الكامل بشأن الحالة، انقر هنا.
للاطلاع على ملخص تعليقات العامة بشأن هذه الحالة، يُرجى النقر على المرفق الموجود أدناه.