أسقط
فيديو أسير قوات الدعم السريع السودانية
ألغى مجلس الإشراف قرار Meta الأصلي بالإبقاء على مقطع فيديو يظهر به رجال مسلحون من قوات الدعم السريع في السودان وهم يحتجزون أحد الأشخاص في الجزء الخلفي من مركبة عسكرية.
الملخص
ألغى مجلس الإشراف قرار Meta الأصلي بالإبقاء على مقطع فيديو يظهر به رجال مسلحون من قوات الدعم السريع في السودان وهم يحتجزون أحد الأشخاص في الجزء الخلفي من مركبة عسكرية. وينتهك الفيديو كلاً من معيار المجتمع بشأن المنظمات الخطرة والأفراد الخطرين ومعيار المجتمع بشأن تنسيق الأنشطة الضارة وترويج ارتكاب الجرائم. ويشعر المجلس بالقلق من أن Meta لم تقم بإزالة المحتوى - الذي يظهر به أسير حرب وينطوي على دعم مجموعة صنّفتها الشركة على أنها خطرة - بالسرعة الكافية. وهو ما يشير إلى مشكلات أوسع تتعلق بكل من اتخاذ إجراءات الإنفاذ بشكل فعّال تجاه المحتوى أثناء النزاعات المسلحة وكيفية مراجعة المحتوى الذي يكشف هوية أسرى الحرب ("كشف الهوية"). يدعو المجلس شركة Meta إلى تطوير حل قابل للتنفيذ على نطاق واسع لتحديد المحتوى الذي يكشف هوية أسرى الحرب أثناء النزاع المسلح بشكل استباقي.
حول الحالة
في 27 أغسطس 2023، نشر أحد مستخدمي فيسبوك مقطع فيديو لرجال مسلحين يحتجزون شخصًا ما في مؤخرة مركبة عسكرية في السودان. يعرّف رجل يتحدث باللغة العربية نفسه على أنه عضو في قوات الدعم السريع ويدعي أن المجموعة ألقت القبض على مواطن أجنبي، من المحتمل أن يكون مقاتلًا مرتبطًا بالقوات المسلحة السودانية. ويواصل الرجل القول إنهم سيسلمونه إلى قيادة قوات الدعم السريع، وأنهم يعتزمون العثور على قادة القوات المسلحة السودانية والقبض عليهم بالإضافة إلى أي من المنتسبين الأجانب للقوات المسلحة السودانية في السودان. ويتضمن الفيديو عبارات مهينة لمواطنين أجانب وقادة دول أخرى يدعمون القوات المسلحة السودانية، بينما يقول الشرح التوضيحي باللغة العربية: "نحن نعلم بوجود أجانب يقاتلون جنبًا إلى جنب مع كتائب الإخوان الشيطانية".
في أبريل 2023، اندلع صراع مسلح في السودان بين قوات الدعم السريع شبه العسكرية والقوات المسلحة السودانية، وهي القوة العسكرية الرسمية للحكومة. وعلى إثر ذلك الصراع، نزح ما يقرب من 7.3 مليون شخص، ويواجه أكثر من 25 مليون شخص حالة شديدة من انعدام الأمن الغذائي. وقد أفادت منظمات حقوقية سودانية أن قوات الدعم السريع احتجزت أكثر من 5000 شخص، وأبقتهم في ظروف غير إنسانية. وهناك تقارير تفيد بارتكاب كلا الجانبين جرائم حرب وجرائم ضد الإنسانية. وقد صنّفت Meta قوات الدعم السريع بموجب معيار مجتمعها بشأن المنظمات الخطرة والأفراد الخطرين.
بعد وقت قصير من نشر الفيديو، أبلغ ثلاثة من مستخدمي فيسبوك عن المحتوى، ولكن بسبب انخفاض الخطورة (احتمال انتهاك معايير المجتمع) وانخفاض معدل الانتشار (عدد المشاهدات)، لم تحصل البلاغات على أولوية المراجعة البشرية ومن ثم ظل المحتوى على المنصة. تقدم أحد المستخدمين بطعن ولكن تم إغلاق هذا البلاغ بسبب سياسات الأتمتة التي اتبعتها Meta نتيجة لانتشار فيروس كورونا (كوفيد-١٩). وتقدم المستخدم نفسه في أعقاب ذلك بطعن إلى مجلس الإشراف. وبعد أن لفت المجلس انتباه Meta إلى الحالة، أزالت الشركة منشور فيسبوك بموجب معيار المجتمع بشأن المنظمات الخطرة والأفراد الخطرين، وطبقت أيضًا إنذارًا قياسيًا وإنذارًا شديدًا على الملف الشخصي لناشر الفيديو.
أهم النتائج
ينتهك المحتوى معيار مجتمع Meta بشأن المنظمات الخطرة والأفراد الخطرين لأنه يحتوي على دعم لمجموعة صنّفتها الشركة كمنظمة خطرة من الفئة الأولى - وعلى وجه التحديد من خلال "توجيه المعلومات أو الموارد، بما في ذلك الاتصالات الرسمية" نيابة عن تلك المنظمة. ويعرّف الرجل الذي يتحدث في الفيديو نفسه بأنه أحد أفراد قوات الدعم السريع، ويصف أنشطتها، ويتحدث عن الإجراءات التي تتخذها المجموعة ويذكر بشكل مباشر اسم قائد قوات الدعم السريع، محمد حمدان دقلو. ويرى المجلس أن إزالة هذا المحتوى، الذي ينطوي على تهديدات لأي شخص يعارض قوات الدعم السريع أو يتحداها، أمر ضروري ومتناسب.
أكد المجلس في قرارات سابقة على مخاوفه بشأن الافتقار إلى الشفافية فيما يتعلق بقائمة Meta للمنظمات والأفراد المصنّفين. وبالنظر إلى الوضع في السودان، حيث تتمتع قوات الدعم السريع بنفوذ أو سيطرة فعلية على أجزاء من البلاد، قد يتعرض المدنيون الذين يعتمدون على فيسبوك للحصول على معلومات أمنية وإنسانية مهمة، بما في ذلك قنوات الاتصالات الخاصة بقوات الدعم السريع، إلى خطر أكبر عند فرض قيود على قنوات الاتصال تلك.
بالإضافة إلى ذلك، يرى المجلس أن هذا المحتوى ينتهك سياسة تنسيق الأنشطة الضارة وترويج ارتكاب الجرائم لأنه يُظهر رجلاً أسيرًا مرئيًا بالكامل يصفه الفيديو بأنه "أسير أجنبي" يرتبط بالقوات المسلحة السودانية. ولا تسمح سياسة Meta بالكشف عن هوية أسرى الحرب أثناء النزاعات المسلحة. وتعد إزالة الفيديو ضرورية بموجب القواعد المحددة في القانون الإنساني الدولي وذلك لحماية المحتجزين في النزاعات المسلحة. ويشعر المجلس بالقلق من عدم التعرف على هذا المحتوى وإزالته لانتهاكه قاعدة Meta التي تحظر كشف هوية أسرى الحرب. ويحتمل أن يرجع نقص الإنفاذ هذا إلى عدم تطبيق هذه القاعدة حاليًا إلا عند التصعيد فقط، مما يعني أن المراجعين البشريين الذين يشرفون على المحتوى على نطاق واسع لا يمكنهم اتخاذ الإجراء بأنفسهم. وفي الواقع، لا يمكن تطبيق هذه القاعدة إلا إذا تم لفت انتباه فرق Meta التي تعمل عند التصعيد إلى المحتوى من خلال وسائل أخرى، على سبيل المثال، من خلال الشركاء الموثوق بهم أو إذا كان المحتوى يحظى بتغطية صحفية كبيرة.
أخيرًا، يشعر المجلس أيضًا بالقلق من إخفاق Meta في إزالة هذا المحتوى فور نشره أو بعد وقت قصير من نشره. لم تنجح أنظمة Meta التلقائية في اكتشاف الانتهاك في هذا الفيديو بشكل صحيح، مما يشير إلى مشكلة أوسع تتعلق بالإنفاذ. يعتقد المجلس أنه يجب إجراء تغييرات للسماح بإخضاع المزيد من المحتوى الذي يدعم المنظمات الخطرة للمراجعة البشرية عندما يتعلق الأمر بالنزاعات المسلحة.
قرار مجلس الإشراف
ألغى مجلس الإشراف قرار شركة Meta الأصلي بترك الفيديو.
يوصي المجلس Meta بما يلي:
- تطوير حل يمكن تنفيذه على نطاق واسع لإنفاذ سياسة تنسيق الأنشطة الضارة وترويج ارتكاب الجرائم من شأنه حظر كشف هوية أسرى الحرب في سياق النزاعات المسلحة. ويجب تكليف فريق متخصص لترتيب الأولويات واكتشاف المحتوى الذي يكشف هوية أسرى الحرب أثناء النزاعات بشكل استباقي.
- مراجعة بيانات التدريب المستخدمة في أداة تصنيف فهم محتوى الفيديو لتقييم احتوائها على القدر الكافي من النماذج المتنوعة للمحتوى الذي يدعم المنظمات المصنّفة في سياق النزاعات المسلحة، بما في ذلك اللغات واللهجات والمناطق والنزاعات المختلفة.
- تضمين رابط إلى القوائم الأمريكية للمنظمات الإرهابية الأجنبية والإرهابيين العالميين المصنّفين تحديدًا، متى تم ذِكر هذه القوائم.
*توفر ملخصات الحالة نظرة عامة على الحالات ولا تُشكّل سابقة قانونية.
القرار الكامل للمجلس بشأن الحالة
1. ملخص القرار
مجلس الإشراف يلغي قرار Meta الأصلي بترك فيديو يظهر به رجل مسلح، يصف نفسه بأنه أحد أفراد قوات الدعم السريع، ويحتجز أحد الأشخاص في الجزء الخلفي من مركبة عسكرية. يصف أعضاء قوات الدعم السريع الأسير، الذي يظهر وجهه بوضوح، بأنه مواطن أجنبي يرتبط بالقوات المسلحة السودانية. وقد صنّفت Meta قوات الدعم السريع بموجب معيار مجتمعها بشأن المنظمات الخطرة والأفراد الخطرين. وبعد أن وقع اختيار المجلس على الحالة، راجعت Meta قرارها الأصلي وأزالت الفيديو لانتهاكه معيار المجتمع بشأن المنظمات الخطرة والأفراد الخطرين الذي يحظر "دعم" الكيانات المصنّفة وتحديدًا "توجيه المعلومات أو الموارد، بما في ذلك الاتصالات الرسمية، نيابة عن كيان مصنّف أو حدث مصنّف". وينتهك المنشور أيضًا سياسة Meta بشأن تنسيق الأنشطة الضارة وترويج ارتكاب الجرائم، والتي تحظر المحتوى الذي يكشف هوية أسرى الحرب في النزاعات المسلحة؛ وهو ما حدث في هذه الحالة مع الشخص المحتجز في المركبة. ويشعر المجلس بالقلق من عدم إزالة Meta للمحتوى بالسرعة الكافية، مما قد يشير إلى وجود مشكلات أوسع بشأن الإنفاذ الفعّال للسياسات أثناء النزاعات المسلحة.
2. وصف الحالة ومعلومات أساسية عنها
في 27 أغسطس 2023، نشر أحد مستخدمي فيسبوك مقطع فيديو يُظهر رجالاً مسلحين في السودان يحتجزون شخصًا في الجزء الخلفي لمركبة عسكرية. وفي الفيديو، يعرّف رجل، وهو ليس المستخدم الذي نشر المحتوى، نفسه باللغة العربية على أنه عضو في مجموعة قوات الدعم السريع شبه العسكرية. ويدعي أن المجموعة ألقت القبض على مواطن أجنبي، من المحتمل أن يكون مقاتلًا مرتبطًا بالقوات المسلحة السودانية، وأنهم يعتزمون تسليمه إلى قيادة قوات الدعم السريع. وذكر الرجل أيضًا أنهم يعتزمون العثور على قادة القوات المسلحة السودانية وشركائهم الأجانب في السودان، وأنهم سيعتقلون أي شخص يعمل ضد قوات الدعم السريع، وأنهم يدينون بالولاء لزعيمهم محمد حمدان دقلو. ويتضمن الفيديو تصريحات مهينة للمواطنين الأجانب وقادة الدول الأخرى الداعمة للقوات المسلحة السودانية.
وكان الفيديو مصحوبًا أيضًا بشرح توضيحي باللغة العربية يقول "نعلم بوجود أجانب من جارتنا الشريرة يقاتلون جنبًا إلى جنب مع كتائب الإخوان الشيطانية". وبعد وقت قصير من نشر الفيديو، قام المستخدم بتعديل الشرح التوضيحي. وكان الشرح التوضيحي الذي تم تعديله يقول: "نعلم بوجود أجانب يقاتلون جنبًا إلى جنب مع كتائب الإخوان الشيطانية". وحظي المنشور بأقل من 100 تفاعل و50 تعليقًا و50 مشاركة، في حين أن الشخص الذي نشر المحتوى لديه نحو 4000 صديق و32000 متابع.
بعد وقت قصير من نشر المحتوى، أبلغ مستخدمون آخرون على فيسبوك عنه، لكن هذه البلاغات لم تحصل على أولوية المراجعة البشرية وظل المنشور على المنصة. تقدم أحد هؤلاء المستخدمين بطعن على قرار Meta غير أن طعنه أُغلق مرة أخرى دون مراجعة. وتقدم المستخدم نفسه في أعقاب ذلك بطعن إلى مجلس الإشراف. وبعد أن لفت المجلس انتباه Meta إلى الحالة في أكتوبر 2023، وبعد مراجعة أجراها خبراء متخصصون في سياسة Meta، قامت الشركة بإزالة المنشور من فيسبوك بموجب سياستها بشأن المنظمات الخطرة والأفراد الخطرين. وبعد إزالة المحتوى، قامت Meta بتطبيق إنذار شديد وإنذار قياسي على الملف الشخصي للشخص الذي نشر المحتوى لأن الإنذار الشديد يؤدي إلى عقوبات مختلفة وأكثر صرامة عن الإنذار القياسي. يمكن أن يؤدي تراكم الإنذارات القياسية إلى تصاعد في شدة العقوبات. وعندما ينتهك المحتوى المنشور سياسات Meta الأكثر صرامة، مثل سياسة المنظمات الخطرة والأفراد الخطرين، فقد تطبق الشركة قيودًا إضافية أكثر صرامة بالإضافة إلى القيود القياسية. على سبيل المثال، قد يتم تقييد قدرة المستخدمين على إنشاء الإعلانات واستخدام Facebook Live لفترات زمنية محددة.
أخذ المجلس في حسبانه السياق التالي عند التوصل إلى قراره بشأن هذه الحالة.
بدأ النزاع المسلح في السودان في أبريل 2023 بين القوات المسلحة السودانية – وهي القوات العسكرية التابعة للحكومة المعترف بها دوليًا بقيادة الفريق أول عبد الفتاح البرهان – والمجموعة شبه العسكرية، قوات الدعم السريع، بقيادة محمد حمدان دقلو، المعروف باسم "حميدتي". وبعد وقت قصير من بداية النزاع، أعلنت القوات المسلحة السودانية أن قوات الدعم السريع جماعة متمردة وأمرت بحلها. وقد تم تصنيف الحرب في البلاد على أنها نزاع مسلح غير دولي. واعتبارًا من نوفمبر 2023، وفقًا لموقع سودان وور مونيتور، كانت قوات الدعم السريع تسيطر على معظم غرب دارفور والمنطقة المحيطة بالعاصمة الخرطوم وأجزاء من شمال وغرب كردفان، بينما كانت القوات المسلحة السودانية تسيطر على معظم وادي النيل وولايات وموانئ شرق البلاد.
فرضت وزارة الخزانة الأمريكية عقوبات على عبد الرحيم حمدان دقلو، أحد رموز قوات الدعم السريع، وشقيق محمد حمدان دقلو، في 6 سبتمبر 2023. ولقد صنَّفت Meta بشكل مستقل قوات الدعم السريع قبل ذلك بشهر تقريبًا كمنظمة إرهابية من الفئة الأول في 11 أغسطس 2023، بموجب سياستها بشأن المنظمات الخطرة والأفراد الخطرين. وحتى وقت نشر هذا القرار، كان تصنيف Meta لقوات الدعم السريع لا يزال قائمًا.
وفقا للأمم المتحدة، فقد أدى النزاع، منذ أبريل 2023، إلى نزوح ما يقرب من 7.3 مليون شخص، وقد مثلت النساء والأطفال حوالي نصف هذا الإجمالي. ويواجه أكثر من 25 مليون شخص، بما في ذلك أكثر من 14 مليون طفل، انعدامًا حادًا في الأمن الغذائي ويحتاجون إلى مساعدات إنسانية. ويتصاعد العنف القائم على نوع الجنس، والتحرش والعنف الجنسي، والاتجار والاستغلال الجنسي. وتشير التقديرات إلى أن تفشي الأمراض وتدهور النظام الصحي قد أدى إلى وفاة حوالي 6000 شخص في جميع أنحاء السودان. وفي أكتوبر 2023، اعتمد مجلس حقوق الإنسان التابع للأمم المتحدة قرارًا بإنشاء بعثة دولية مستقلة لتقصي الحقائق على وجه السرعة في السودان، مع تفويض للتحقيق وإثبات الحقائق والظروف المتعلقة بالانتهاكات المزعومة لحقوق الإنسان والقانون الإنساني الدولي المرتكبة أثناء النزاع. وقد أفادت منظمات حقوقية سودانية أن قوات الدعم السريع احتجزت أكثر من 5000 شخص في العاصمة الخرطوم، وأبقتهم في ظروف احتجاز مهينة وغير إنسانية، مع عدم إمكانية الوصول إلى الضروريات الأساسية اللازمة للكرامة الإنسانية.
وفقًا لمصادر متعددة، بما في ذلك المحكمة الجنائية الدولية ووزارة الخارجية الأمريكية، هناك تقارير تفيد بأن أفرادًا من القوات المسلحة السودانية وقوات الدعم السريع ارتكبوا جرائم إبادة جماعية وجرائم ضد الإنسانية وجرائم حرب في السودان. وبالإضافة إلى ذلك، تشير التقارير إلى أن قوات الدعم السريع والميليشيات المتحالفة معها ارتكبت جرائم حرب من خلال الاستهداف العرقي لمجتمعات المساليت في السودان وعلى الحدود مع تشاد. وقد سلّط الخبراء المتخصصون في دراسات الشرق الأوسط وشمال أفريقيا، الذين استشارهم المجلس، الضوء على التقارير التي تفيد بأن كلا الجانبين مسؤولان أيضًا عن انتهاكات واسعة النطاق ضد المحتجزين، بما في ذلك الظروف اللاإنسانية، والاعتقالات غير القانونية والتعسفية، والاستهداف العرقي، والعنف الجنسي، والقتل واستخدام الرهائن كدروع بشرية.
أشار الخبراء الذين استشارهم المجلس إلى أن تصنيف Meta لقوات الدعم السريع كمنظمة خطيرة أدى إلى تقييد نشر المنظمة للمعلومات، بما في ذلك الروايات الضارة. ومع ذلك، فقد أدى هذا التصنيف أيضًا إلى تشجيع قوات الدعم السريع على استكشاف أساليب أخرى لتبادل المعلومات، مثل اللجوء إلى استخدام الصفحات والحسابات الشخصية غير الرسمية، بما في ذلك نشر محتوى حول المعتقلين. وهو ما جعل من الصعب على المراقبين رصد أنشطة المجموعة أو مواجهتها بشكل فعّال. وأشار الخبراء أيضًا إلى أن تصنيف قوات الدعم السريع ساهم في عدم تناسق المعلومات وأعاق وصول المدنيين إلى المعلومات. على سبيل المثال، ستقل فرص تلقي الأشخاص تحديثات قوات الدعم السريع بشأن الظروف الأمنية في مناطق معينة من خلال منصات Meta (راجع التعليق العام رقم PC -24020 من "Civic Media Observatory" (مرصد الإعلام المدني)).
يعتمد المدنيون ووسائل الإعلام في السودان على منصات التواصل الاجتماعي، وخاصة فيسبوك، في الحصول على معلومات وتحديثات مهمة حول التطورات الاجتماعية والسياسية والعسكرية والإنسانية ونشرها خارج السودان؛ وإيجاد طرق للسلامة داخل البلاد أو الفرار من السودان؛ والعثور على معلومات مهمة حول العمليات العسكرية أو اندلاع أعمال عنف للتعرف على الأعمال العسكرية الجارية في مواقع معينة والبحث عن مأوى أو ملجأ من تلك الأعمال (راجع التعليق العام رقم PC -24020 من "Civic Media Observatory" (مرصد الإعلام المدني))؛ وطلب المساعدة الإنسانية والطبية؛ والتعرف على الرهائن وأسرى الحرب.
3. سُلطة ونطاق مجلس الإشراف
يتمتع المجلس بسُلطة مراجعة قرار شركة Meta بعد تلقي طعن من الشخص الذي أبلغ سابقًا عن المحتوى الذي تم تركه على المنصة (المادة 2، القسم 1 من اتفاقية المجلس؛ المادة 3، القسم 1 من اللائحة الداخلية).
يجوز للمجلس تأييد قرار شركة Meta أو إلغائه (المادة 3، القسم 5 من اتفاقية المجلس)، ويكون قراره بهذا الشأن ملزمًا للشركة (المادة 4 من اتفاقية المجلس). يجب على شركة Meta أيضًا تقييم جدوى تطبيق قرارها على أي محتوى مماثل له سياق موازٍ (المادة 4 من اتفاقية المجلس). وقد تتضمن قرارات المجلس توصيات غير مُلزِمة يجب على شركة Meta الاستجابة لها (المادة 3، القسم 4 من اتفاقية المجلس؛ المادة 4). وعندما تلتزم Meta بتنفيذ التوصيات، يراقب المجلس هذا التنفيذ.
4. مصادر السُلطة والإرشادات
استند تحليل المجلس في هذه الحالة إلى المعايير والسوابق التالية:
1. قرارات مجلس الإشراف
- الاقتباس النازي
- مكتب تيجراي لشؤون الاتصالات
- مقطع فيديو لأسرى حرب أرمينيين
- مخاوف البنجابيين تجاه منظمة راشتريا سوايامسيفاك سانغ (RSS) في الهند
- عزلة أوجلان
- إنكار محرقة اليهود (الهولوكوست)
- منشور الأسلحة المرتبط بالنزاع في السودان
- الرأي الاستشاري بشأن سياسات المحتوى حول الإشارة إلى أفراد مصنّفين باستخدام كلمة "شهيد"
2. سياسات المحتوى لدى شركة Meta
استند تحليل المجلس إلى التزام Meta بتعزيز حرية الرأي، والتي تصفها الشركة بأنها "ذات أهمية قصوى" بالإضافة إلى قيم السلامة والخصوصية والكرامة.
بعد أن وقع اختيار المجلس على هذه الحالة للمراجعة، أزالت Meta المحتوى لانتهاك سياسة المنظمات الخطرة والأفراد الخطرين بسبب دعم كيان مصنّف. وينتهك المحتوى أيضًا سياسة تنسيق الأنشطة الضارة وترويج ارتكاب الجرائم التي تحظر تصوير أسرى حرب يمكن التعرف عليهم في نزاع مسلح. وكما أبلغت شركة Meta المجلس في حالات سابقة، عندما ينتهك المحتوى العديد من السياسات، تتخذ الشركة إجراءات الإنفاذ وفقًا للانتهاك الأكثر خطورة. واعتبرت Meta، في هذه الحالة، أن انتهاك سياسة المنظمات الخطرة والأفراد الخطرين هو الأكثر خطورة.
المنظمات الخطرة والأفراد الخطرين
وفقًا لمبادئ السياسة لمعيار المجتمع بشأن المنظمات الخطرة والأفراد الخطرين فإنه في إطار السعي لمنع الأعمال التي من شأنها إلحاق أضرار فعلية على أرض الواقع وإيقافها، فإن Meta لا تسمح للمنظمات أو الأفراد الذين يتبنون مهمات تنطوي على أعمال عنف أو يشاركون في أعمال عنف بالتواجد على منصاتها. وتقيّم Meta تلك الكيانات استنادًا إلى سلوكها على الإنترنت وعلى أرض الواقع، والأهم من ذلك، علاقاتها بالعنف. وفي وقت نشر المحتوى المنظور في هذه الحالة، كانت السياسة تحظر "الإشادة والدعم الموضوعي والتمثيل" للكيانات المصنّفة.
يشمل "الدعم الموضوعي" "توجيه المعلومات أو الموارد، بما في ذلك الاتصالات الرسمية، نيابة عن كيان مصنّف أو حدث مصنّف"، من خلال "الاقتباس مباشرةً من كيان مصنّف دون وضع شرح توضيحي يدينه أو يناقشه بحيادية أو يشكّل جزءًا من التقارير الإخبارية".
في 29 ديسمبر 2023، قامت Meta بتحديث خط السياسة الذي يتناول "الدعم الموضوعي". ينص الإصدار المحدّث على أن Meta تزيل "تمجيد كيانات الفئة الأولى ودعمها وتمثيلها". وقد أضافت Meta فئتين فرعيتين: "الدعم المادي" و"أشكال الدعم الأخرى". وتَظهر قاعدة "التوجيه" الآن ضمن "أشكال الدعم الأخرى".
تنسيق الأنشطة الضارة وترويج ارتكاب الجرائم
وفقًا لمبادئ السياسة، يهدف معيار المجتمع بشأن تنسيق الأنشطة الضارة وترويج ارتكاب الجرائم إلى "إعاقة حدوث السلوكيات الضارة والمقلَّدة خارج الإنترنت" من خلال منع الأشخاص من "تسهيل أو تنظيم أو ترويج أو الإقرار ببعض الأنشطة الإجرامية أو الضارة التي تستهدف الأشخاص أو الأنشطة التجارية أو الممتلكات أو الحيوانات." يحظر معيار المجتمع هذا "كشف هوية شخص أو تعريضه لخطر الضرر". وتدرج السياسة "أسرى الحرب في سياق نزاع مسلح" ضمن المجموعات التي تتمتع بالحماية من "كشف الهوية".
3. مسؤوليات شركة Meta تجاه حقوق الإنسان
تُرسي مبادئ الأمم المتحدة التوجيهية بشأن الأعمال التجارية وحقوق الإنسان (UNGP)، التي أقرها مجلس حقوق الإنسان التابع للأمم المتحدة عام 2011، إطار عمل تطوعي لمسؤوليات الأنشطة التجارية الخاصة فيما يتعلق بحقوق الإنسان. في عام 2021، أعلنت شركة Meta عن سياسة حقوق الإنسان الخاصة بالشركة، والتي أعادت التأكيد من خلالها على الالتزام باحترام حقوق الإنسان على نحو يتفق مع مبادئ الأمم المتحدة التوجيهية بشأن الأعمال التجارية وحقوق الإنسان. وبشكل واضح، تفرض مبادئ الأمم المتحدة التوجيهية بشأن الأعمال التجارية وحقوق الإنسان مسؤولية أكبر على الشركات العاملة في المناطق المتأثرة بالنزاعات ("الأعمال التجارية وحقوق الإنسان والمناطق المتأثرة بالنزاعات: نحو مضاعفة العمل، A/75/212).
استند تحليل المجلس لمسؤوليات شركة Meta تجاه حقوق الإنسان في هذه الحالة إلى المعايير الدولية التالية:
- الحق في حرية التعبير: المادة 19 من العهد الدولي الخاص بالحقوق المدنية والسياسية (ICCPR)، التعليق العام رقم 34، اللجنة المعنية بحقوق الإنسان، 2011؛ تقارير مقرر الأمم المتحدة الخاص المعني بحرية الرأي والتعبير: A/HRC/38/35 (2018) وA/74/486 (2019)، تقرير مقرر الأمم المتحدة الخاص حول التضليل الإعلامي وحرية الرأي والتعبير أثناء النزاعات المسلحة؛ التقرير A/77/288؛ تقرير المفوضية السامية للأمم المتحدة لحقوق الإنسان بشأن الحماية القانونية الدولية لحقوق الإنسان أثناء النزاع المسلح (2011).
- الحق في الحياة: المادة 6 من العهد الدولي الخاص بالحقوق المدنية والسياسية.
- الحق في الحرية والأمن الشخصي: المادة 9، العهد الدولي الخاص بالحقوق المدنية والسياسية.
- الحق في عدم التعرض للتعذيب والمعاملة غير الإنسانية والمهينة: المادة 7، العهد الدولي الخاص بالحقوق المدنية والسياسية.
- الحق في الخصوصية: المادة 17، العهد الدولي الخاص بالحقوق المدنية والسياسية.
- الحق في المعاملة الإنسانية أثناء الاحتجاز: المادة 10، العهد الدولي الخاص بالحقوق المدنية والسياسية.
- حماية أسرى الحرب من المعاملة المهينة والحاطة بالكرامة، بما في ذلك السباب وفضول الجماهير: المادة المشتركة 3 من اتفاقيات جنيف والبروتوكول الإضافي الثاني؛ المادة 13، الفقرة 2، اتفاقية جنيف الثالثة، والتعليق على اتفاقية جنيف (الثالثة)، اللجنة الدولية للصليب الأحمر (ICRC)، 2020؛ التعليق العام رقم 31، اللجنة المعنية بحقوق الإنسان، 2004.
5. المعلومات المقدَّمة من المستخدمين
ذكر المستخدم الذي تقدم بطعن على قرار الشركة بالإبقاء على المحتوى أن المنشور يتضمن معلومات ومشاهد مضللة وتهديدات بالعنف من قبل قوات الدعم السريع في العاصمة السودانية الخرطوم. وطلب المستخدم إزالة المحتوى لأنه يشكل خطرًا على الأشخاص في السودان.
6. المعلومات المقدَّمة من Meta
أخبرت Meta المجلس أن قرارها الأولي بالإبقاء على المحتوى يرجع إلى أن أنظمتها الآلية لم تمنح أولوية المراجعة البشرية للمحتوى. وفقًا لمركز الشفافية التابع لشركة Meta، يتم، بشكل عام، تحديد أولوية مراجعة البلاغات ديناميكيًا استنادًا إلى عدة عوامل مثل درجة خطورة الانتهاك المتوقع، وسرعة انتشار المحتوى واحتمالية انتهاك المحتوى لمعايير المجتمع. وعادةً ما يتم إغلاق البلاغات التي يتم تصنيفها باستمرار في مرتبة أقل أولوية من غيرها في قائمة الانتظار بعد 48 ساعة. وبعد فترة وجيزة من نشر المحتوى في هذه الحالة، أبلغ ثلاثة من مستخدمي فيسبوك عن المحتوى أربع مرات بسبب "الإرهاب"، و"الخطاب الذي يحض على الكراهية" و"العنف". ونظرًا لانخفاض درجة الخطورة وانخفاض معدل انتشار الفيديو، لم يتم إعطاء أولوية المراجعة البشرية لهذه البلاغات وتم ترك المحتوى على المنصة. تقدّم أحد هؤلاء المستخدمين بطعن على قرار Meta بإبقاء المحتوى. ووفقًا للشركة، تم إغلاق هذا الطعن تلقائيًا بسبب سياسات الأتمتة التي اتبعتها Meta نتيجة لانتشار فيروس كورونا (كوفيد-١٩) منذ بداية الوباء عام 2020 لتقليل حجم البلاغات التي يتم إرسالها إلى المراجعين البشريين، مع عدم إغلاق البلاغات "عالية الخطورة" (راجع قرار إنكار محرقة اليهود (الهولوكوست). عندما تم إغلاق البلاغ تلقائيًا، لم يتم تصعيد المحتوى إلى خبراء سياسة المحتوى أو خبراء متخصصين لإجراء مراجعة إضافية.
أوضحت Meta أنها قررت بعد أن وقع اختيار المجلس على هذه الحالة إزالة المنشور لأنه ينتهك معيار المجتمع بشأن المنظمات الخطرة والأفراد الخطرين. وخلُصت Meta إلى أنه من خلال نشر مقطع فيديو يُظهر أحد أعضاء قوات الدعم السريع يتحدث عن أنشطة المنظمة، دون شرح توضيحي "يدينها أو يناقشها بحيادية أو يشكّل جزءًا من التقارير الإخبارية"، فقد انتهك المستخدم خط سياسة "الدعم الموضوعي" من خلال "توجيه معلومات" حول كيان مصنّف من الفئة الأولى. لذلك قامت Meta بإزالته من المنصة.
طرح المجلس على شركة Meta 13 سؤالاً كتابيًا. تناولت الأسئلة تدابير الإنفاذ التي تتبعها Meta في التعامل مع المحتوى الذي يتعلق بالنزاع في السودان، والأنظمة التلقائية ونماذج الترتيب، والعمليات المتعلقة بتصنيف المنظمات الخطرة والأفراد الخطرين، ومبادئ تصنيف قوات الدعم السريع كمنظمة إرهابية من الفئة الأولى وتأثير هذا القرار على الوصول إلى المعلومات في السودان. وقد أجابت Meta عن جميع الأسئلة.
7. التعليقات العامة
تلقى مجلس الإشراف 16 تعليقًا عامًا استوفت شروط إرسال التعليقات. تم تقديم عشرة تعليقات من الشرق الأوسط وشمال أفريقيا، وثلاثة تعليقات من أوروبا وتعليق من أمريكا اللاتينية والكاريبي وتعليق من أفريقيا جنوب الصحراء وتعليق من الولايات المتحدة وكندا. للاطلاع على التعليقات العامة المقدمة التي وافق أصحابها على نشرها، انقر هنا.
تناولت التعليقات الموضوعات التالية: معاملة قوات الدعم السريع للرهائن، والمحتجزين والمدنيين؛ والانتهاكات المزعومة التي ارتكبتها قوات الدعم السريع وحالات العنف في المنطقة؛ ومخاطر إظهار الرهائن والمحتجزين الذين يمكن تحديد هويتهم على وسائل التواصل الاجتماعي؛ واستخدام قوات الدعم السريع لوسائل التواصل الاجتماعي؛ وأهمية وسائل التواصل الاجتماعي للمدنيين في السودان؛ وعواقب تصنيف Meta لقوات الدعم السريع على بيئة المعلومات في السودان؛ وتحديد أولويات المراجعة الآلية والبشرية للمحتوى لدى Meta في حالات النزاع.
8. تحليل مجلس الإشراف
نظر المجلس فيما إذا كانت إزالة هذا المحتوى ضرورية من خلال تحليل سياسات المحتوى لدى Meta، ومسؤولياتها تجاه حقوق الإنسان وقيَمِها. كما أجرى المجلس تقييمًا للآثار التي تمثلها هذه الحالة بالنسبة إلى نهج Meta الأوسع في إدارة المحتوى.
اختار المجلس هذه الحالة لأنها وفرت فرصة لاستكشاف كيف ينبغي لشركات وسائل التواصل الاجتماعي احترام الوصول إلى المعلومات في بلدان مثل السودان حيث يمكن أن تكون المعلومات حيوية أثناء وجود نزاع مستمر، خاصة بالنسبة للمدنيين، ومع ذلك يمكن للمنظمات الخطرة أيضًا استخدام هذه المنصات لتعزيز مهماتها العنيفة وترويج الضرر على أرض الواقع.
بالإضافة إلى ذلك، توفر هذه الحالة للمجلس الفرصة لتقييم كيفية حماية Meta للمحتجزين في النزاعات المسلحة بما يتماشى مع القانون الإنساني الدولي. وتندرج هذه الحالة في المقام الأول ضمن الأولوية الاستراتيجية للمجلس المتمثلة في حالات الأزمات والنزاعات، ولكنها تمس أيضًا الإنفاذ التلقائي للسياسات وتنظيم المحتوى.
8.1 الامتثال لسياسات المحتوى لدى Meta
1. قواعد المحتوى
معيار المجتمع بشأن المنظمات الخطرة والأفراد الخطرين
يرى المجلس أن المحتوى في هذه الحالة ينتهك سياسة المنظمات الخطرة والأفراد الخطرين لأنه يدعم منظمة مصنّفة من الفئة الأولى.
أبلغت Meta المجلس بأنها أزالت المحتوى في هذه الحالة لأنه يحتوي على "دعم موضوعي" لمنظمة إرهابية من الفئة الأولى. وأوضحت الشركة أن "الدعم الموضوعي" يشمل "توجيه المعلومات أو الموارد، بما في ذلك الاتصالات الرسمية، نيابة عن كيان مصنّف"، من خلال "الاقتباس مباشرةً من كيان مصنّف دون وضع شرح توضيحي يدينه أو يناقشه بحيادية أو يشكّل جزءًا من التقارير الإخبارية". وفي هذه الحالة، يعرض الفيديو شخصًا يعرّف نفسه بأنه عضو في قوات الدعم السريع، ويتحدث عن أنشطة قوات الدعم السريع والإجراءات التي سيتم اتخاذها، ويذكر اسم قائد قوات الدعم السريع.
بالإضافة إلى ذلك، توفر إرشادات Meta الداخلية قائمة غير شاملة بأمثلة العناصر المكتوبة أو المرئية التي تُظهر الدعم الموضوعي. ويشمل ذلك المنشورات التي "يعرض فيها المحتوى، أو يدعي أنه يعرض، قائدًا أو متحدثًا رسميًا أو عضوًا معروفًا أو شخصًا يعلن أنه عضو في كيان مصنّف يتحدث عن المنظمة أو قضيتها".
في 29 ديسمبر 2023، حدّثت Meta خط سياسة المنظمات الخطرة والأفراد الخطرين الذي يتناول "الدعم الموضوعي". ينص الإصدار المحدّث على أن Meta تزيل "تمجيد كيانات الفئة الأولى ودعمها وتمثيلها". وعلى الرغم من أن Meta قد استبدلت "الدعم الموضوعي" بكلمة "الدعم"، فإن هذه التغييرات لا تؤثر على التحليل في هذه الحالة أو على كيفية اتخاذ Meta لإجراءات إنفاذ ضد هذا المحتوى.
سياسة تنسيق الأنشطة الضارة وترويج ارتكاب الجرائم
يرى المجلس أن المحتوى ينتهك أيضًا معيار المجتمع بشأن تنسيق الأنشطة الضارة وترويج ارتكاب الجرائم.
تحظر سياسة Meta الكشف عن هوية أسرى الحرب أثناء النزاعات المسلحة. وفقًا لشركة Meta، يتم إنفاذ هذه السياسة عند التصعيد فقط ولا تتضمن استثناءً للمحتوى الذي يعزز الوعي بشأن أسرى الحرب أو يدين إساءة معاملتهم. تعرّف Meta أسير الحرب بأنه "فرد في القوات المسلحة تم أسره أو وقع في أيدي قوى معادية خلال نزاع مسلح أو بعده مباشرةً". ويدرك المجلس أن هذه القاعدة تنطبق بنفس القدر على النزاعات المسلحة الدولية والنزاعات المسلحة غير الدولية.
في هذه الحالة، يرى المجلس أن الفيديو يُظهر شخصًا يمكن التعرف عليه وتم وصفه من قبل أفراد مسلحين من قوات الدعم السريع الذين احتجزوه بأنه "أسير أجنبي" مرتبط بالقوات المسلحة السودانية، وهي الخصم الرئيسي لقوات الدعم السريع في النزاع الدائر في السودان. ولذلك، فإن المحتوى ينتهك السياسة ويجب إزالته.
8.2 الامتثال لمسؤوليات شركة Meta تجاه حقوق الإنسان
حرية التعبير (المادة 19 من العهد الدولي الخاص بالحقوق المدنية والسياسية)
تنص المادة 19 من العهد الدولي الخاص بالحقوق المدنية والسياسية على ضرورة توفير حماية واسعة النطاق لحرية التعبير، بما في ذلك التعبير السياسي. يتضمن هذا الحق "حرية التماس المعلومات والأفكار بمختلف أنواعها وتلقيها وتداولها". يجب احترام هذه الحقوق خلال النزاعات المسلحة الدائرة، ويجب أن تواصل مسؤوليات Meta تجاه حقوق الإنسان الاسترشاد بها، جنبًا إلى جنب مع القواعد المكمّلة والتي تعزز بعضها بعضًا والواردة في القانون الإنساني الدولي ويتم تطبيقها خلال تلك النزاعات (التعليق العام رقم 31، لجنة حقوق الإنسان، 2004، الفقرة 11؛ التعليق على مبادئ الأمم المتحدة التوجيهية بشأن الأعمال التجارية وحقوق الإنسان، المبدأ 12؛ راجع أيضًا تقرير مقرر الأمم المتحدة الخاص حول التضليل الإعلامي وحرية الرأي والتعبير أثناء النزاعات المسلحة؛ التقرير A/77/288، الفقرات من 33 إلى 35 (2022)؛ وتقرير المفوضية السامية للأمم المتحدة لحقوق الإنسان بشأن الحماية القانونية الدولية لحقوق الإنسان أثناء النزاع المسلح (2011) في صفحة 59).
صرّح مقرر الأمم المتحدة الخاص المعني بحرية التعبير أنه "خلال النزاعات المسلحة، يكون الناس في أشد حالاتهم ضعفًا وفي أمس الحاجة إلى معلومات دقيقة وجديرة بالثقة لضمان سلامتهم ورفاههم. ومع ذلك، في تلك الحالات بالتحديد يكون حقهم في حرية الرأي والتعبير، الذي يشمل "حرية التماس مختلف ضروب المعلومات والأفكار وتلقيها ونقلها" مقيدًا بشدة بظروف الحرب والإجراءات التي تتخذها أطراف النزاع وغيرها من الجهات الفاعلة للتلاعب بالمعلومات والحد من الوصول إليها لأهداف سياسية وعسكرية واستراتيجية" (تقرير A/77/288، الفقرة 1). يدرك المجلس أهمية ضمان قدرة الأشخاص على مشاركة المعلومات بشأن النزاعات بحُرية، لا سيّما عندما تكون وسائل التواصل الاجتماعي هي المصدر الأساسي للمعلومات، مع التأكد في الوقت ذاته من إزالة المحتوى الذي يحتمل أن يؤدي إلى مزيد من العنف على أرض الواقع أو يحرض عليه.
1. الشرعية (وضوح القواعد وسهولة الوصول إليها)
يتطلب مبدأ الشرعية بموجب القانون الدولي لحقوق الإنسان أن تكون القواعد التي تحد من حرية التعبير واضحة ومتاحة لعامة الجمهور (التعليق العام رقم 34، الفقرة 25). يجب أن تصاغ القيود التي تحد من حرية التعبير بدقة كافية حتى يفهم الأفراد الأمور المحظورة ويضبطوا سلوكهم تبعًا لها (المرجع نفسه). وبتطبيق ذلك على Meta، يجب على الشركة توفير إرشادات للمستخدمين بشأن المحتوى المسموح به وغير المسموح به على المنصة. علاوة على ذلك، فإن القواعد التي تقيّد حرية التعبير "لا يجوز أن تمنح الأشخاص المسؤولين عن تنفيذها سلطة تقديرية مطلقة" ويجب أن تنص على توجيهات كافية للمكلفين بتنفيذها لتمكينهم من التحقق على النحو المناسب من أنواع التعبير التي تخضع للتقييد وتلك التي لا تخضع لهذا التقييد" ( A/HRC/38/35، الفقرة 46).
المنظمات الخطرة والأفراد الخطرين
أثار مقرر الأمم المتحدة الخاص المعني بحرية التعبير مخاوف بشأن قواعد منصات التواصل الاجتماعي التي تحظر "الإشادة" و"الدعم" ووجد أن هذه المصطلحات تتسم "بغموض مفرط" (A/HRC/38/35، الفقرة 26). وقد انتقد المجلس سابقًا عدم وضوح سياسة المنظمات الخطرة والأفراد الخطرين. ولا تشارك Meta علنًا قائمة الكيانات التي تصنّفها بموجب السياسة. وتوضح الشركة أنها اختارت تصنيف الكيانات التي صنّفتها حكومة الولايات المتحدة على أنها منظمات إرهابية أجنبية (FTO) أو إرهابيين عالميين مصنّفين تحديدًا (SDGT). في حين أنه تم إنشاء قائمة Meta الكاملة لتصنيفات الإرهابيين من الفئة الأولى بواسطة الشركة وعلى الرغم من توسعها إلى ما هو أبعد من التصنيفات الأمريكية، يدرك المجلس أن نسبة كبيرة من الكيانات الإرهابية المصنّفة من الفئة الأولى لدى Meta مدرجة على قوائم المنظمات الإرهابية الأجنبية والإرهابيين العالميين المصنّفين تحديدًا. وعلى الرغم من أن قوائم حكومة الولايات المتحدة علنية، تشير معايير مجتمع Meta فقط إلى أطر عمل المنظمات الإرهابية الأجنبية والإرهابيين العالميين المصنّفين تحديدًا ولا توفر رابطًا لقوائم الحكومة الأمريكية هذه. ولذلك، يوصي المجلس شركة Meta بإضافة رابط تشعبي للقوائم الأمريكية للمنظمات الإرهابية الأجنبية والإرهابيين العالميين المصنّفين تحديدًا في معايير مجتمعها لتحسين الشفافية والوضوح للمستخدمين.
مع ذلك، لم تصنّف حكومة الولايات المتحدة، في هذه الحالة، قوات الدعم السريع، مما يعني أن الجمهور لن يعرف أن Meta قد صنّفت أحد طرفي هذا النزاع. وهذا الافتقار إلى الشفافية بشأن التصنيفات يعني أن الجمهور قد لا يعرف ما إذا كان المحتوى الخاص بهم قد يشكّل انتهاكًا أم لا. في قرار الاقتباس النازي، أوصى المجلس Meta "بتوفير قائمة علنية للمنظمات والأفراد المصنّفين على أنهم "خطرين" في معيار المجتمع بشأن المنظمات الخطرة والأفراد الخطرين". رفضت Meta تنفيذ هذه التوصية بعد تقييم جدواها.
يشعر المجلس بالقلق من أنه بالنظر إلى الوضع في السودان، فإن تصنيف قوات الدعم السريع كمنظمة إرهابية من الفئة الأولى، إلى جانب الافتقار إلى الشفافية بشأن هذا التصنيف، يعني أن الأشخاص في السودان ليسوا على دراية بحقيقة حظر أحد أطراف النزاع من التواجد على المنصة، مما قد يؤدي إلى تأثير غير متناسب على الوصول إلى المعلومات في السودان، دون إشعار المستخدمين بهذه الحقيقة. يعتقد المجلس أنه يتعين على Meta التحلي بمزيد من الشفافية شفافية عند اتخاذ القرارات في المناطق المتأثرة بالنزاعات المسلحة، حيث تكون الساحة المدنية مقيدة، ومصادر المعلومات الموثوقة المتاحة للمدنيين محدودة، وحرية وسائل الإعلام مهددة، والمجتمع المدني هش. ونظرًا لنفوذ قوات الدعم السريع وسيطرتها الفعلية على أجزاء من البلاد (راجع القسم 2)، واعتماد المدنيين السودانيين على فيسبوك للوصول إلى المعلومات الأمنية والإنسانية الهامة، بما في ذلك من خلال قنوات اتصالات قوات الدعم السريع، يرى المجلس أن العواقب التي لا يمكن التنبؤ بها على السكان المحليين نتيجة افتقار Meta إلى الشفافية بشأن تصنيف أطراف النزاع ستعرض أمنهم الجسدي لخطر إضافي.
في الرأي الاستشاري بشأن سياسات المحتوى حول الإشارة إلى أفراد مصنّفين باستخدام كلمة "شهيد"، يتناول المجلس مسألة الشفافية هذه فيما يتعلق بقوائم Meta للكيانات المصنّفة. في التوصية رقم 4، يحث المجلس شركة Meta على "أن تشرح الإجراء الذي يتم بموجبه تصنيف الكيانات والأحداث" بمزيد من التفصيل. ويتعين عليها أيضًا "نشر معلومات مجمعة عن العدد الإجمالي للكيانات التي تندرج تحت كل فئة من فئات قائمة التصنيف، وعدد الكيانات التي أضيفت أو أزيلت خلال العام الماضي"، (الإشارة إلى أفراد مصنّفين باستخدام كلمة "شهيد"، التوصية رقم 4). ويعيد المجلس التأكيد على هذه التوصية، ويحث على التحلي بمزيد من الشفافية.
بالنسبة لأقلية من أعضاء المجلس، على الرغم من أن Meta لم تعلن بشكل علني عن تصنيف قوات الدعم السريع، فإن الانتهاكات التي ارتكبتها قوات الدعم السريع معروفة على نطاق واسع، بما في ذلك جرائم الحرب المزعومة والجرائم ضد الإنسانية، وقد تم نشر تقارير عنها على نطاق واسع مع تصاعد النزاع (راجع القسم 2). ومع عِلم الجمهور بهذه الانتهاكات، يمكن للمستخدمين بشكل معقول توقع أن مشاركة المحتوى المسجل أو المنشور بواسطة قوات الدعم السريع يمكن أن ينتهك معايير مجتمع Meta.
بالنظر إلى السياق المحدد في السودان، يخلُص المجلس إلى أن القاعدة المطبقة في هذه الحالة - والتي تحظر "الدعم الموضوعي" من خلال "توجيه المعلومات أو الموارد، بما في ذلك الاتصالات الرسمية، نيابة عن كيان مصنّف أو حدث مصنّف" - مفسرة بوضوح في سياسة Meta للمنظمات الخطرة والأفراد الخطرين، وهي متاحة للمستخدمين وبالتالي تفي باختبار الشرعية. وقد توصل المجلس إلى نفس الاستنتاج بالنسبة إلى قواعد السياسة المحدّثة بشأن "الدعم"، والتي نشرتها Meta في 29 ديسمبر 2023، والتي أحلت "الدعم" محل "الدعم الموضوعي". ويلاحظ المجلس أنه على الرغم من إضافة Meta فئتين فرعيتين، وهما "الدعم المادي" و"أشكال الدعم الأخرى"، مع إدراج خط السياسة الذي يتناول "التوجيه" حاليًا ضمن "أشكال الدعم الأخرى"، فإن القاعدة نفسها لم تتغير جوهريًا.
معيار المجتمع بشأن تنسيق الأنشطة الضارة وترويج ارتكاب الجرائم
يرى المجلس أن قاعدة Meta التي تحظر "كشف هوية أسرى الحرب" واضحة بما فيه الكفاية وفي متناول المستخدمين، وتفي بمبدأ الشرعية.
2. الهدف المشروع
ينبغي أن تستند أي قيود مفروضة على حرية التعبير إلى أحد الأهداف المشروعة الواردة في العهد الدولي الخاص بالحقوق المدنية والسياسية، والتي من بينها الأمن القومي والنظام العام واحترام حقوق الآخرين.
وفقًا لمبادئها، تهدف سياسة المنظمات الخطرة والأفراد الخطرين إلى "منع الأعمال التي من شأنها إلحاق أضرار فعلية على أرض الواقع وإيقافها" ولا تسمح "للمنظمات أو الأفراد الذين يتبنون مهمات تنطوي على أعمال عنف أو يشاركون في أعمال عنف بالتواجد على منصات Meta". أقر المجلس سابقًا بأن سياسة المنظمات الخطرة والأفراد الخطرين تسعى إلى تحقيق الهدف المتمثل في حماية حقوق الآخرين، بما في ذلك الحق في الحياة، والأمن الشخصي، والمساواة وعدم التمييز (المادة 19، الفقرة 3 من العهد الدولي الخاص بالحقوق المدنية والسياسية؛ راجع أيضًا قرارات مخاوف البنجابيين تجاه منظمة راشتريا سوايامسيفاك سانغ (RSS) في الهند والاقتباس النازي). وقد توصل المجلس في السابق إلى أن غرض سياسة المنظمات الخطرة والأفراد الخطرين المتمثل في منع وقوع ضرر على أرض الواقع هو هدف مشروع (راجع قرار عزلة أوجلان).
تخدم سياسة تنسيق الأنشطة الضارة وترويج ارتكاب الجرائم الهدف المشروع المتمثل في حماية حقوق الآخرين (المادة 19، الفقرة 3، العهد الدولي الخاص بالحقوق المدنية والسياسية)، بما في ذلك الحق في الحياة والخصوصية والحماية ضد التعذيب أو المعاملة القاسية أو غير الإنسانية أو المهينة. وفي هذه الحالة، تستند شرعية الهدف الكامن وراء حظر تصوير أسرى الحرب الذين يمكن تحديد هويتهم إلى قواعد القانون الإنساني الدولي التي تدعو إلى حماية حياة وخصوصية وكرامة أسرى الحرب (المادة المشتركة 3، اتفاقيات جنيف؛ راجع أيضًا مقطع فيديو لأسرى حرب أرمينيين) وحقيقة تصنيف الأعمال العدائية في السودان على أنها نزاع مسلح (راجع القسم 2).
3. الضرورة والتناسب
يجب أن تكون أي قيود تُفرض على حرية التعبير "مناسبة لتحقيق وظيفة الحماية المنوطة بها، [و] يجب أن تكون أقل الوسائل تدخلاً مقارنة بغيرها من الوسائل التي يمكن أن تحقق النتيجة المنشودة؛ ويجب أن تكون متناسبة مع المصلحة التي ستحميها،" (التعليق العام رقم 34، الفقرة 34). ينبغي على شركات وسائل التواصل الاجتماعي التفكير في نطاق الطرق الممكنة للتعامل مع المحتوى المثير للمشاكل بخلاف الحذف لضمان صياغة القيود بدقة ( A/74/486، الفقرة 51).
كما سلط المجلس الضوء سابقًا في قرار مكتب تيجراي لشؤون الاتصالات، تفرض مبادئ الأمم المتحدة التوجيهية بشأن الأعمال التجارية وحقوق الإنسان مسؤولية مشددة على الأنشطة التجارية العاملة ف أماكن النزاعات. في قرار مقطع فيديو لأسرى حرب أرمينيين، وجد المجلس أنه "في حالة النزاع المسلح، يستند تحليل المجلس لحرية التعبير إلى قواعد أكثر دقة في القانون الإنساني الدولي."
المنظمات الخطرة والأفراد الخطرين
يرى المجلس أن إزالة المحتوى في هذه الحالة ضروري ومتناسب. من الضروري حظر المحتوى الذي يقتبس بشكل مباشر من فرد وصف نفسه بأنه عضو في منظمة مصنّفة، وتورط في أعمال عنف واسعة النطاق ضد المدنيين، عند عدم وجود شرح توضيحي يدينه، أو يناقشه بحيادية، أو يشير إلى أن المنشور جزء من تقارير إخبارية. وفي هذه الحالة، يشارك المنشور مقطع فيديو يُظهر أحد أفراد قوات الدعم السريع وهو يصف أنشطة المجموعة وخططها، بما في ذلك تهديد أي شخص يعارضها أو يتحداها. وقد يؤدي نشر هذا النوع من المعلومات نيابة عن منظمة مصنّفة على فيسبوك، خاصة في سياق النزاع المسلح في السودان، مع تورط قوات الدعم السريع في أعمال عنف واسعة النطاق وجرائم حرب وجرائم ضد الإنسانية (راجع القسم 2) إلى زيادة خطر حدوث ضرر على أرض الواقع. وفي ظل هذه الظروف، لن يؤدي أي إجراء أقل من إزالة المحتوى إلى معالجة خطر حدوث الضرر، وتعد الإزالة أقل الوسائل تقييدًا لحماية حقوق الآخرين.
يشعر المجلس بالقلق من إخفاق Meta في إزالة هذا المحتوى فور نشره أو بعد وقت قصير من نشره، ولم تتصرف إلا بعد أن وقع اختيار المجلس على الحالة، بعد شهرين. أبلغت Meta المجلس أنه على الرغم من إبلاغ العديد من المستخدمين عن المحتوى، فإن أنظمتها التلقائية أعطت هذا المحتوى درجة منخفضة، مما يعني أنه لم يحصل على أولوية المراجعة البشرية. وتستعين أنظمة Meta التلقائية بمجموعة متنوعة من الميزات عند تحديد الإجراء الذي يجب اتخاذه بشأن أحد عناصر المحتوى، بما في ذلك أدوات تصنيف تعلُّم الآلة التي تعطي درجة للمحتوى بناءً على احتمالية وجود انتهاك، وخطورة الانتهاك المحتمل، وسرعة انتشار المحتوى. وإذا أضيفت إلى قائمة انتظار المراجعة، يمكن أيضًا الاستعانة بهذه الميزات لتحديد الأولويات أو تنظيم الترتيب الذي يمكن مراجعة المحتوى وفقًا له. ووفقًا لشركة Meta، لم يحصل المحتوى في هذه الحالة على الأولوية بسبب عدم اكتشاف أنظمة الشركة وجود انتهاك في الفيديو وتوقعها بأن المحتوى لن يحظى سوى بالقليل من المشاهدات، وبالتالي تم إغلاق البلاغات تلقائيًا دون مراجعة بمجرد مرور 48 ساعة. وعلى وجه التحديد، شهد ترتيب هذا الفيديو حدوث مشكلة تتمثل في وجود أداتي تصنيف متقاطعتين أصدرتا درجات تصنيف خطورة متوقعة وكانت الدرجات التي صدرت عن الأداتين منخفضة. ويشعر المجلس بالقلق من أن أخطاء الاكتشاف التلقائي لدى شركة Meta في هذه الحالة قد تشير إلى مشكلات أوسع نطاقًا، ولا سيّما فشل أداتي التصنيف في التعرف على المحتوى الذي يدعم قوات الدعم السريع، وهي كيان مصنّف غير مسموح له بالتواجد على المنصة، وتصوير عضو يعرّف نفسه على أنه ينتمي إلى الكيان المصنّف - بدون شرح توضيحي يدين المحتوى أو يناقشه بحيادية أو يشكّل جزءًا من تقارير إخبارية. وردًا على سؤال المجلس حول سبب فشل أداتي التصنيف في اكتشاف الانتهاك في هذه الحالة، أشارت Meta إلى أنها لم تتمكن من تحديد العوامل التي أدت تحديدًا إلى حصول هذا المحتوى على درجة منخفضة.
لذلك، يخلُص المجلس إلى أنه يتعين على Meta اتخاذ الخطوات اللازمة لتعزيز اكتشاف المحتوى وتحديد أولوياته تلقائيًا من خلال مراجعة بيانات التدريب المستخدمة في أداة تصنيف فهم محتوى الفيديو لتقييم احتوائها على القدر الكافي من النماذج المتنوعة للمحتوى الذي يدعم المنظمات المصنّفة في سياق النزاعات المسلحة، بما في ذلك اللغات واللهجات والمناطق والنزاعات المختلفة. يجب أن تضمن Meta أن هذا التغيير يسمح بإخضاع المزيد من المحتوى للمراجعة البشرية. ومن المرجح أن يتطلب ذلك زيادة سعة المراجعة البشرية لضمان قدرة Meta على معالجة الزيادة في حجم المحتوى الذي يتطلب المراجعة بشكّل فعّال بعد اندلاع أحد النزاعات. وسيساعد هذا التعديل الشركة على معايرة كيفية استجابة أنظمتها التلقائية للتحديات المتعلقة بالنزاعات المسلحة، والتعرف على المحتوى الذي ينطوي على منظمات خطرة في هذه السياقات ومعالجته بشكل أفضل، وهو ما يعزز فعّالية تدابير الإنفاذ الخاصة بالشركة.
بالإضافة إلى ذلك، يرى المجلس أن Meta فشلت في إنشاء آلية مستدامة لإنفاذ سياسات المحتوى الخاصة بها بشكل مناسب أثناء الحرب في السودان. وفي حالة منشور الأسلحة المرتبط بالنزاع في السودان، أوضحت Meta أنها لم تقم بإنشاء مركز العمليات والمنتجات والنزاهة من أجل السودان، والذي تتم الاستعانة به للتعامل مع التهديدات في الوقت الفعلي، لأن الشركة كانت قادرة على "التعامل مع مخاطر المحتوى المعروفة من خلال العمليات الحالية." واتخذت Meta موقفًا مماثلاً في هذه الحالة. في السابق، أوصى المجلس أنه "لتحسين إنفاذ سياسات المحتوى خلال فترات النزاع المسلح، يجب على Meta تقييم جدوى إنشاء آلية داخلية مستدامة توفر الخبرة والقدرة الاستيعابية والتنسيق اللازم لمراجعة المحتوى والتعامل معه بفعّالية أثناء نشوب النزاعات (راجع قرار مكتب تيجراي لشؤون الاتصالات، التوصية رقم 2)". في أغسطس 2023، أبلغت Meta المجلس أنها شكّلت "فريقًا للتعامل مع تنسيق الأزمات وتوفير إشراف مخصص على العمليات طوال دورة حياة الأزمات الوشيكة والناشئة. وقد استوفينا منذ ذلك الحين متطلبات التوظيف ونحن الآن بصدد تكثيف هذا الفريق من أجل مسؤوليات التنفيذ التشغيلي قبل وأثناء وبعد الأحداث والانتخابات عالية الخطورة. وقد تم إنشاء جميع الخدمات اللوجستية التشغيلية للفريق، وسيكون الفريق جاهزًا للعمل بشكل كامل في جميع المناطق خلال الأشهر المقبلة. وسنستمر في تحسين إطار التنفيذ الخاص به عندما نواجه حوادث نزاع وسنعمل على تقييم فعّالية هذه البنية. ونرى الآن أن تنفيذ هذه التوصية قد اكتمل ولن يتم إصدار تحديثات أخرى بشأنها." ومع ذلك، وردًا على سؤال المجلس، أشارت Meta إلى أنها لم تقم بإنشاء مثل هذه الآلية للنزاع الدائر في السودان، على الرغم من أن الشركة تعتبر التوصية مكتملة.
معيار المجتمع بشأن تنسيق الأنشطة الضارة وترويج ارتكاب الجرائم
إن ضرورة وتناسب إزالة هذا المحتوى بموجب السياسة التي تحظر كشف هوية أسرى الحرب تسترشد بالقواعد الأكثر تحديدًا للقانون الإنساني الدولي (راجع مقطع فيديو لأسرى حرب أرمينيين). وتحظر المادة المشتركة 3 من اتفاقيات جنيف "الاعتداء على الكرامة الشخصية، وبخاصة المعاملة المهينة والحاطة بالكرامة" للمحتجزين في النزاعات المسلحة الدولية والنزاعات المسلحة غير الدولية. وتحظر المادة 13 من اتفاقية جنيف (الثالثة) أعمال العنف أو الترهيب ضد أسرى الحرب وتعريضهم للسباب وفضول الجماهير. ولا يسمح القانون الإنساني الدولي بالكشف العلني عن صور أسرى الحرب إلا في بعض الظروف المحدودة. وكما تشير اللجنة الدولية للصليب الأحمر في توجيهاتها لوسائل الإعلام، إذا كانت "المصلحة العامة المُلِحة" أو "المصلحة الحيوية" للأسير تتطلب ذلك، يجوز الكشف عن الصور التي تصوّر أسرى الحرب بشكل استثنائي طالما أن كرامة الأسير المصوّر مُصانة. وعندما يتم تصوير الأسير في أوضاع مهينة أو حاطة بالكرامة، يجب إخفاء هويته "من خلال الأساليب المناسبة، مثل طمس الوجوه وبطاقات الأسماء أو تشويهها أو التعتيم عليها بطريقة أخرى" (تعليق اللجنة الدولية للصليب الأحمر على المادة 13 في الصفحة 1627). وفي حين يقر المجلس بوجود أدوات متاحة عبر الإنترنت تتيح للمستخدمين إخفاء هوية المحتوى الحساس لأسرى الحرب، فإن Meta لا توفر حاليًا للمستخدمين مثل هذه الوسائل لطمس أو التعتيم على وجوه أسرى الحرب في محتوى الفيديو المنشور على منصتها.
وتهدف هذه المحظورات التي يفرضها القانون الإنساني الدولي، والاستثناءات المحددة بشكل ضيق، إلى حماية الأشخاص الذين تم احتجازهم أثناء النزاع. وكما رأى المجلس سابقًا في حالة مقطع فيديو لأسرى حرب أرمينيين، فإن حظر مشاركة صور أسرى الحرب "يتفق مع الأهداف المنصوص عليها في القانون الإنساني الدولي"، و"عندما يكشف المحتوى عن هوية أسرى الحرب أو مكانهم، ستكون الإزالة بوجه عام متناسبة بالنظر إلى شدة الأضرار التي قد تترتب على هذا المحتوى".
في هذه الحالة، كانت إزالة المنشور ضرورية نظرًا لقواعد القانون الإنساني الدولي والمخاطر التي ينطوي عليها النزاع في السودان. وكما هو مبيّن في القسم 2 أعلاه، منذ اندلاع النزاع، اعتقلت قوات الدعم السريع آلاف المدنيين وأفراد القوات المسلحة السودانية أو أولئك المشتبه في تقديمهم الدعم لها. وهناك تقارير عن انتهاكات واسعة النطاق للقانون الإنساني الدولي، حيث تم احتجاز المعتقلين في ظروف غير إنسانية ومهينة، وتعرضوا لسوء المعاملة وحتى القتل. وفي ظل هذه الظروف، وفي غياب سبب حقوقي مُقنِع للسماح ببقاء هذا المحتوى على المنصة، فإن الإزالة ضرورية ومتناسبة لضمان الحفاظ على كرامة الأسير وسلامته.
ويشعر المجلس بالقلق، في ضوء خطورة الأضرار المحتملة والمخاطر المتزايدة التي ينطوي عليها النزاع المسلح، لأنه لم يتم اكتشاف هذا المحتوى وإزالته لانتهاكه قاعدة Meta التي تحظر كشف هوية أسرى الحرب. ومن المحتمل أن يرجع هذا النقص في الإنفاذ إلى أن القاعدة التي تحظر كشف هوية أسرى الحرب أثناء النزاع المسلح يتم إنفاذها حاليًا عند التصعيد فقط، مما يعني أن مشرفي المحتوى الذين يعملون على نطاق واسع لا يمكنهم إنفاذ هذه السياسة. في حالة مقطع فيديو لأسرى حرب أرمينيين، رأى المجلس أن "القاعدة التي تتطلب "سياقًا إضافيًا لإنفاذها"، وبالتالي تتطلب التصعيد إلى الفِرق الداخلية قبل إنفاذها، ضرورية، لأن تحديد ما إذا كان الشخص الذي تم تصويره عبارة عن أسير حرب يمكن تحديد هويته في سياق نزاع مسلح هو أمر يتطلب دراسة من الخبراء". ومع ذلك، منذ نشر هذا القرار، علم المجلس أن مشرفي المحتوى على نطاق واسع لدى Meta لم يتم توجيههم أو تمكينهم من تحديد المحتوى الذي ينتهك سياسات الشركة التي يتم إنفاذها عند التصعيد فقط، مثل القاعدة المعنية في هذه الحالة. وبلفظ آخر، لا يمكن تطبيق هذه القاعدة إلا إذا تم لفت انتباه فرق Meta التي تعمل عند التصعيد فقط إلى المحتوى من خلال وسائل أخرى، على سبيل المثال، من خلال الشركاء الموثوق بهم أو عند وجود تغطية صحفية كبيرة.
يعني ذلك، من الناحية العملية، احتمال ترك الكثير من عناصر المحتوى الذي يكشف هوية أسرى الحرب على المنصة. وهو ما يثير مخاوف إضافية بشأن دقة إنفاذ الاكتشاف التلقائي لدى Meta، نظرًا لأن سياسات التصعيد فقط لا تقدم على الأرجح قرارات بشرية كافية لتدريب أدوات التصنيف التلقائية.
لذلك، في حين يرى المجلس أن القاعدة التي تحظر كشف هوية أسرى الحرب في النزاعات المسلحة ضرورية، يرى المجلس أن إنفاذ Meta لهذه السياسة ليس كافيًا للوفاء بمسؤولية الشركة تجاه احترام حقوق أسرى الحرب. ولضمان توفير حماية فعّالة لحقوق المحتجزين بموجب القانون الإنساني الدولي، يجب على الشركة تطوير حل قابل للتنفيذ على نطاق واسع لإنفاذ هذه السياسة. ويجب أن تنشئ Meta عملية أو بروتوكولًا متخصصًا لاكتشاف هذا المحتوى بشكل استباقي أثناء النزاعات المسلحة.
الوصول إلى سبل الانتصاف
أبلغت Meta المجلس أن الطعن في هذه الحالة قد أُغلِق تلقائيًا بسبب سياسات الأتمتة التي اتبعتها شركة Meta نتيجة انتشار فيروس كورونا (كوفيد-١٩)، مما أدى إلى ترك المحتوى على المنصة. في حالة إنكار محرقة اليهود (الهولوكوست)، أوصى المجلس Meta "بالتأكيد علنًا إذا ما كانت قد أنهت تمامًا جميع سياسات الأتمتة المتعلقة بفيروس كورونا (كوفيد-١٩) التي تم وضعها خلال الجائحة." ويشعر المجلس بالقلق من أن سياسات الأتمتة التي اتبعتها شركة Meta نتيجة انتشار فيروس كورونا (كوفيد-١٩)، والتي يبررها الانخفاض المؤقت في سعة المراجعة البشرية بسبب الوباء، لا تزال سارية ويكرر توصيته، ويحث Meta على التوضيح علنًا متى ستنتهي قدرتها الاستيعابية المنخفضة فيما يتعلق بالمراجعين البشريين.
9. قرار مجلس الإشراف
ألغى مجلس الإشراف قرار شركة Meta الأصلي بإبقاء المحتوى.
10. التوصيات
الإنفاذ
1. لضمان توفير حماية فعّالة للمحتجزين بموجب القانون الإنساني الدولي، يتعين على Meta تطوير حل يمكن تنفيذه على نطاق واسع لإنفاذ سياسة تنسيق الأنشطة الضارة وترويج ارتكاب الجرائم من شأنه حظر كشف هوية أسرى الحرب في سياق النزاعات المسلحة. ويجب على Meta وضع بروتوكول طوال مدة النزاع يتم بموجبه إنشاء فريق متخصص لتحديد أولويات المحتوى الذي يكشف هوية أسرى الحرب والتعرف عليه بشكل استباقي.
سيعتبر المجلس أن هذا قد دخل حيز التنفيذ عندما تشارك Meta مع المجلس بيانات عن فعّالية هذا البروتوكول في التعرف على المحتوى الذي يكشف هوية أسرى الحرب في سياق النزاعات المسلحة وتقدم تحديثات بشأن فعّالية هذا البروتوكول كل ستة أشهر.
2. لتحسين اكتشاف المحتوى الذي يحتمل أن يشكّل انتهاكًا لسياسة المنظمات الخطرة والأفراد الخطرين وتحديد أولوية إخضاعه للمراجعة البشرية تلقائيًا، يتعين على Meta مراجعة بيانات التدريب المستخدمة في أداة تصنيف فهم محتوى الفيديو لتقييم احتوائها على القدر الكافي من النماذج المتنوعة للمحتوى الذي يدعم المنظمات المصنّفة في سياق النزاعات المسلحة، بما في ذلك اللغات واللهجات والمناطق والنزاعات المختلفة.
سيعتبر المجلس أن هذه التوصية قد دخلت حيز التنفيذ عند تزود Meta المجلس بنتائج تفصيلية عن هذه المراجعة والتحسينات الضرورية التي ستنفذها الشركة نتيجة لذلك.
3. لتوفير مزيد من الوضوح للمستخدمين، يتعين على Meta إدراج رابط إلى القوائم الأمريكية للمنظمات الإرهابية الأجنبية والإرهابيين العالميين المصنّفين تحديدًا، متى تم ذِكر هذه القوائم.
سيعتبر المجلس أن هذه التوصية قد دخلت حيز التنفيذ عندما تنفذ Meta هذه التغييرات في معايير المجتمع.
ملاحظة إجرائية:
تتولى لجان من خمسة أعضاء مسؤولية إعداد قرارات مجلس الإشراف وتعتمدها أغلبية أعضاء المجلس. ولا يلزم بالضرورة أن تُعبّر قرارات المجلس عن وجهات النظر الشخصية لجميع الأعضاء.
بالنسبة إلى القرار المتخذ بشأن هذه الحالة، تم إجراء بحث مستقل نيابة عن المجلس. وقد تلقى المجلس مساعدة من شركة Duco Advisors، وهي شركة تركز على نقطة التقاء الجغرافيا السياسية والثقة والأمان والتكنولوجيا. وقد تم تقديم تحليلات أيضًا بواسطة Memetica، وهي مؤسسة متخصصة في الأبحاث مفتوحة المصدر عن اتجاهات وسائل التواصل الاجتماعي. تم توفير الخبرة اللغوية بواسطة شركة Lionbridge Technologies LLC، التي يتقن المتخصصون بها أكثر من 350 لغة ويعملون من 5000 مدينة في جميع أنحاء العالم.
العودة إلى قرارات الحالة والآراء الاستشارية المتعلقة بالسياسة