أيد

منشور الأسلحة المرتبط بالنزاع في السودان

أيد مجلس الإشراف قرار Meta بإزالة منشور يحتوي على رسم لخرطوشة بندقية، مع شرح توضيحي يقدم تعليمات بشأن كيفية صنع قنابل المولوتوف وإلقائها، والذي تمت مشاركتها أثناء اندلاع نزاع مسلح في السودان.

نوع القرار

معيار

السياسات والمواضيع

عنوان
حرب وصراع، عنف
معيار المجتمع
العنف والتحريض

المناطق/البلدان

موقع
السودان

منصة

منصة
Facebook

الملخص

أيد مجلس الإشراف قرار Meta بإزالة منشور يحتوي على رسم لخرطوشة بندقية، مصحوبًا بشرح توضيحي يقدم تعليمات بشأن كيفية صنع قنابل المولوتوف وإلقائها. يرى المجلس أن المنشور انتهك معيار مجتمع فيسبوك بشأن العنف والتحريض، مما يمثل خطرًا وشيكًا ينذر بوقوع ضرر قد يؤدي إلى تفاقم العنف الدائر في السودان. وقد أثارت هذه الحالة مخاوف أوسع بشأن مسؤوليات Meta تجاه حقوق الإنسان فيما يتعلق بالمحتوى الذي يتضمن تعليمات بشأن الأسلحة والذي تتم مشاركته أثناء النزاعات المسلحة. للوفاء بهذه المسؤوليات، يجب أن تضمن Meta أن قواعدها بشأن العنف والتحريض أكثر وضوحًا. علاوة على ذلك، يجب على Meta تطوير أدوات لتصحيح أي أخطاء ترتكبها عند إرسال إشعار خاطئ إلى المستخدمين بشأن معيار المجتمع الذي انتهكه المحتوى الخاص بهم.

حول الحالة

في يونيو 2023، نشر أحد مستخدمي فيسبوك رسمًا توضيحيًا لخرطوشة بندقية، مع توضيح المكونات باللغة العربية. يقدم الشرح التوضيحي للمنشور إرشادات بشأن كيفية صنع قنابل المولوتوف باستخدام المكونات وينصح بارتداء خوذة عند إلقاء القنابل الحارقة. ويختتم بالدعاء بالنصر للشعب السوداني والقوات المسلحة السودانية.

قبل شهرين من نشر المحتوى، اندلع قتال في السودان بين القوات المسلحة السودانية وقوات الدعم السريع، وهي جماعة شبه عسكرية صنفتها Meta على أنها جماعة خطيرة في أغسطس 2023. ولا يزال النزاع المسلح دائرًا في السودان وانتشر في جميع أنحاء البلاد، حيث استخدم الطرفان الأسلحة المتفجرة في الأماكن المكتظة بالمدنيين.

اكتشف نظام Meta التلقائي المحتوى، وقرر أنه انتهك معيار مجتمع فيسبوك بشأن العنف والتحريض. وقد أزالت Meta المنشور، وطبقت إنذارًا قياسيًا على الملف الشخصي للمستخدم. ومن ثم، تقدم المستخدم بطعن على الفور. وأعقب ذلك قرار أحد المراجعين البشريين لدى Meta بأن المحتوى ينتهك سياسة البضائع والخدمات المحظورة. ومن ثم، تقدم المستخدم بطعن إلى المجلس، لتقرر Meta بعد ذلك أن المحتوى كان يجب أن يزال، ولكن في ضوء قرارها الأصلي، بموجب معيار المجتمع بشأن العنف والتحريض.

أهم النتائج

يرى المجلس أن المنشور انتهك سياسة العنف والتحريض من اتجاهين. أولاً، يشكّل التأثير المجمّع للصورة والشرح التوضيحي انتهاكًا للقاعدة التي تحظر تقديم "تعليمات حول كيفية تصنيع أو استخدام الأسلحة حيثما توجد لغة تنص صراحةً على الهدف المتمثل في إصابة الأشخاص بشكل خطير أو قتلهم". بغض النظر عن نية الشخص الذي أنشأ المنشور، يشير الدليل التفصيلي لصنع قنابل المولوتوف وإسداء النصيحة بضرورة "ارتداء خوذة" إلى أن المحتوى يدعو الأشخاص إلى اتباع التعليمات. ثانيًا، لا يتعلق اللجوء إلى العنف دعمًا للقوات المسلحة السودانية أثناء النزاع المسلح الدائر بغرض بعيد عن العنف. تحظر سياسة العنف والتحريض تقديم تعليمات حول كيفية تصنيع الأسلحة، ما لم يكن هناك "سياق واضح يبيّن أن المحتوى مخصص لغرض بعيد عن العنف".

تتضمن القاعدة التي تحظر تقديم تعليمات بشأن تصنيع الأسلحة أو استخدامها استثناءً للمحتوى عند مشاركته لغرض "ترفيهي للدفاع عن النفس، أو لأغراض التدريب العسكري أو ألعاب الفيديو التجارية أو التغطية الإخبارية". وقد ادعى أصحاب المصلحة الذين استشارهم المجلس وكذلك التقارير الإخبارية أن Meta تسمح بمثل هذه التعليمات في إطار ممارسة الدفاع عن النفس في بعض النزاعات المسلحة. وقد نفت Meta صحة ذلك. ولا يسع المجلس تحديد حقيقة هذه الادعاءات المتنافسة.

ومع هذا، يتمثل الجانب الأساسي هنا في أن قواعد Meta بشأن هذه القضية المهمة واضحة، ويتم تنفيذها بشكل متسق وصارم. ونظرًا لاستخدام منصات Meta من قبل المقاتلين والمدنيين أثناء النزاعات لمشاركة المعلومات حول استخدام الأسلحة، أو المحتوى الذي ينطوي على عنف بهدف الدفاع عن النفس، يجب على Meta توضيح ما تعنيه استثناءات المحتوى "الترفيهي للدفاع عن النفس" وأغراض "التدريب العسكري". لا يتفق المجلس مع Meta على أن هذه المصطلحات بالصيغة العامة لمعيار المجتمع بشأن العنف والتحريض لها "معنى واضح". ولزيادة الوضوح، يجب على Meta توضيح الجهات الفاعلة التي يمكن أن تستفيد من استثناء المحتوى "الترفيهي للدفاع عن النفس" وفي أي سياق ينطبق هذا الاستثناء. وبالإضافة إلى ذلك، فإن الصيغة العامة للسياسة فيما يتعلق بتعليمات تصنيع الأسلحة أو المتفجرات أو استخدامها لا تنص صراحةً على أن سياقات الدفاع عن النفس لا تؤخذ في الاعتبار أثناء النزاعات المسلحة.

تسلط هذه الحالة الضوء أيضًا على استثناء آخر غير واضح لمعيار المجتمع بشأن العنف والتحريض، والذي يسمح بالتهديدات الموجهة إلى الإرهابيين وغيرهم من الجهات الفاعلة العنيفة. وهو استثناء غير واضح بما فيه الكفاية نظرًا لعدم توضيح Meta ما إذا كان ينطبق على جميع المنظمات والأفراد الذين تصنّفهم بموجب سياستها المنفصلة بشأن المنظمات الخطرة والأفراد الخطرين. ويسري ذلك على هذه الحالة حيث تم تصنيف قوات الدعم السريع لفترة معنية خلال عام 2023. ومع ذلك، يستحيل بالنسبة إلى المستخدمين معرفة ما إذا كانت منشوراتهم عرضة للإزالة على هذا الأساس أم لا لأن قائمة المنظمات والأفراد المصنّفين غير متاحة للجمهور. أثار المجلس بالفعل مخاوف بشأن عدم الوضوح هذا في قراره بشأن فيديو مركز الشرطة في هايتي.

ويشعر المجلس بالقلق أيضًا من أن نظام الإشعارات لدى شركة Meta لا يسمح لها بتصحيح أخطائها عندما لا تُبلغ بشكل صحيح عن معيار المجتمع الذي انتهكه المستخدم. وتحظى القدرة على إبلاغ المستخدمين بالانتهاكات التي ارتكبوها بأهمية كبيرة، وتضمن تحقق العدالة. وتقوض الإشعارات غير الصحيحة قدرة المستخدم على الطعن والتماس الإنصاف. في هذه الحالة، تم إبلاغ المستخدم بالخطأ أن منشوره قد أزيل بداعي انتهاك سياسة الخطاب الذي يحض على الكراهية، على الرغم من إزالته لانتهاك معيار المجتمع بشأن العنف والتحريض. ولذلك يشجع المجلس Meta على استكشاف طرق مُمكنة تقنيًا تتيح لها تصحيح الإشعارات المرسلة إلى المستخدمين.

قرار مجلس الإشراف

أيد مجلس الإشراف القرار الذي اتخذته شركة Meta بإزالة المنشور.

ويوصي المجلس Meta بما يلي:

  • تعديل سياستها بشأن العنف والتحريض لتتضمن تعريفات كل من المحتوى "الترفيهي للدفاع عن النفس" و"التدريب العسكري" كاستثناءات لقواعدها التي تحظر على المستخدمين تقديم تعليمات عن تصنيع الأسلحة أو استخدامها وتوضيح أنها لا تسمح بأي استثناء لهذه التعليمات للدفاع عن النفس في حالات النزاع المسلح.
  • تطوير أدوات لتصحيح أخطائها عند إرسال رسائل للمستخدمين لإبلاغهم بمعيار المجتمع الذي انتهكوه، حتى يتمكن المستخدمون من فهم السياسات التي انتهكها المحتوى الخاص بهم بشكل صحيح.

* توفر ملخصات الحالة نظرة عامة على الحالات ولا تُشكّل سابقة قانونية.

القرار الكامل للمجلس بشأن الحالة

1. ملخص القرار

يؤيد مجلس الإشراف قرار Meta بإزالة منشور يحتوي على رسم لخرطوشة بندقية، مع ملاحظات بالعربي توضح مكوناتها المختلفة. وقد صاحب المنشور شرحًا توضيحيًا باللغة العربية يقدم تعليمات عن كيفية تفريغ الخرطوشة من كرياتها، واستخدام المكونات في صنع قنبلة مولوتوف. وينصح المنشور أيضًا الأشخاص الذين يلقون هذه القنابل الحارقة بارتداء خوذة لتجنب الإصابة. ويختتم الشرح التوضيحي بدعاء "النصر للشعب السوداني / النصر للقوات المسلحة السودانية / إلى الأمام يا بلادي". اكتشفت إحدى أدوات تصنيف الخطاب العدائي المحتوى وتبيّن لها أنه ينتهك معيار مجتمع فيسبوك بشأن العنف والتحريض.

يرى المجلس أن المنشور انتهك معيار المجتمع بشأن العنف والتحريض، والذي يحظر تقديم تعليمات عن كيفية تصنيع الأسلحة أو استخدامها حيثما توجد لغة تنص صراحةً على الهدف المتمثل في إصابة الأشخاص بشكل خطير أو قتلهم. يخلُص المجلس أيضًا إلى أن المنشور ينتهك خط سياسة آخر بموجب معيار المجتمع بشأن العنف والتحريض، والذي يحظر تقديم تعليمات بشأن كيفية تصنيع المتفجرات أو استخدامها ما لم يكن هناك سياق يبيّن أن المحتوى مخصص لغرض بعيد عن العنف. يرى المجلس أن المحتوى ينطوي على خطر وشيك يتمثل في حدوث ضرر قد يؤدي إلى تفاقم العنف الدائر في السودان.

تثير الحالة مخاوف أوسع بشأن تقديم تعليمات تتعلق بالأسلحة واحتمال مشاركتها خلال نزاع مسلح ومسؤوليات Meta تجاه حقوق الإنسان في هذا السياق. يتطلب الوفاء بهذه المسؤوليات من شركة Meta ضمان اتساق القواعد بدرجة أكبر من خلال إيراد تعريفات واضحة لاستثناءات خطوط السياسة بشأن تصنيع الأسلحة أو المتفجرات أو استخدامها المنصوص عليها في معيار المجتمع بشأن العنف والتحريض. علاوة على ذلك، يجب على Meta تطوير أدوات تتيح للشركة تصحيح الأخطاء عند إبلاغ المستخدمين بمعيار المجتمع الذي انتهكه المحتوى الخاص بهم.

2. وصف الحالة ومعلومات أساسية عنها

في يونيو 2023، نشر أحد مستخدمي فيسبوك رسمًا توضيحيًا لخرطوشة بندقية. وقد تم توضيح المكونات المختلفة للخرطوشة باللغة العربية. ويقدم الشرح التوضيحي المصاحب للمنشور، المكتوب باللغة العربية أيضًا، تعليمات حول كيفية إفراغ خرطوشة البندقية من كرياتها واستخدام المكونات لصنع قنابل المولوتوف، وهي عبارة عن قنبلة حارقة سهلة الصنع، عادة ما تأتي في هيئة زجاجة. ينصح الشرح التوضيحي بارتداء خوذة عند إلقاء القنبلة لحماية الشخص الذي يلقي المادة الحارقة، ويختتم بدعاء "النصر للشعب السوداني" و"النصر للقوات المسلحة السودانية" و"إلى الأمام، يا بلادي". وقد قال الخبراء اللغويون الذين استشارهم المجلس إن هذه العبارات، في حد ذاتها، لا تدعو المدنيين إلى الانخراط في أعمال عنف. ولم يحقق المحتوى سوى القليل من المشاهدات قبل أن تزيله Meta دون مراجعة بشرية، بعد سبع دقائق من نشره. وفي الوقت الذي نشر فيه المحتوى في يونيو 2023، كانت القوات المسلحة السودانية وقوات الدعم السريع، وهي جماعة شبه عسكرية، منخرطتين في نزاع مسلح منذ منتصف أبريل، وهو النزاع الذي لا يزال مستمرًا حتى يومنا هذا. وقد تم تصنيف قوات الدعم السريع كمنظمة خطرة بموجب سياسة المنظمات الخطرة والأفراد الخطرين التي تتبعها شركة Meta في 11 أغسطس 2023، بعد أشهر من تصاعد النزاع.

اكتشفت أداة تصنيف الخطاب العدائي، وهي خوارزمية تستخدمها Meta لتحديد الانتهاكات المحتملة لمعايير مجتمعها بشأن الخطاب الذي يحض على الكراهية والعنف والتحريض والمضايقة والإساءة، المحتوى وقررت أنه ينتهك معيار المجتمع بشأن العنف والتحريض. وقد أزالت Meta المحتوى وطبقت إنذارًا قياسيًا على الملف الشخصي لمنشئ المحتوى، الأمر الذي منعه من التفاعل مع المجموعات وإنشاء أي غرف Messenger أو الانضمام إليها لمدة ثلاثة أيام. ومن ثم، تقدم المستخدم على الفور بطعن على قرار Meta. وأعقب ذلك قرار مراجع بشري بأن المحتوى ينتهك سياسة البضائع والخدمات المحظورة. وعندها، تقدَّم المستخدم بطعن إلى المجلس. بعد أن لفت مجلس الإشراف انتباه Meta إلى الحالة، قررت الشركة أن قرارها الأصلي بإزالة المحتوى بموجب معيار المجتمع المتعلق بالعنف والتحريض كان صائبًا، وأن المحتوى لم ينتهك سياسة البضائع والخدمات المحظورة.

أخذ المجلس في حسبانه السياق التالي عند التوصل إلى قراره بشأن هذه الحالة.

في أبريل 2023، اندلع القتال في العاصمة السودانية بين القوات المسلحة السودانية وقوات الدعم السريع. ويبدو أن المستخدم الذي نشر المحتوى في هذه الحالة يدعم القوات المسلحة السودانية. وبينما تركز القتال في بادئ الأمر في العاصمة السودانية، الخرطوم، فقد انتشر النزاع على مستوى البلاد وامتد إلى دارفور وكردفان. استخدمت المجموعتان الأسلحة المتفجرة، بما في ذلك القنابل الجوية والمدفعية وقذائف الهاون والصواريخ والقذائف، في المناطق المكتظة بالسكان المدنيين. وفقًا للأمم المتحدة، حتى يناير 2024، نزح أكثر من 7 ملايين شخص منذ منتصف أبريل، وفر أكثر من 1.2 مليون شخص من السودان. وتشير التقارير إلى مقتل ما يصل إلى 9000 شخص. وقد انطلقت بعض الهجمات ضد المدنيين من دوافع عرقية. في أكتوبر 2023، أعرب مقرر الأمم المتحدة الخاص المعني بالاتجار بالبشر عن قلقه إزاء زيادة خطر تجنيد القوات والجماعات المسلحة للأطفال والاستعانة بهم. ومع استمرار القتال في جميع أنحاء البلاد، لاحظ الخبراء أيضًا تزايد مشاركة الجماعات المسلحة الأخرى.

وفقًا للخبراء الذين استشارهم المجلس بشأن النزاع في السودان، تعتمد القوات المسلحة السودانية وقوات الدعم السريع على وسائل التواصل الاجتماعي بهدف "نشر المعلومات والدعاية" بشأن أجندات كل منهما. وفي حين أن انتشار الإنترنت لا يزال منخفضًا في السودان، أفادت المؤسساتالإخبارية وجماعاتالمجتمعالمدني أن كلاً من القوات المسلحة السودانية وقوات الدعم السريع يستخدمان وسائل التواصل الاجتماعي في محاولة للسيطرة على الروايات المحيطة بالنزاع. على سبيل المثال، نشر الطرفان منشورات تعلن إحراز النصر في مناطق لا يزال القتال دائرًا فيها، مما يعرض المدنيين العائدين الذين اعتمدوا على معلومات غير دقيقة للخطر.

3. سُلطة ونطاق مجلس الإشراف

يتمتع المجلس بسلطة مراجعة قرار شركة Meta بعد تلقي طعن من الشخص الذي تعرض المحتوى الخاص به إلى الإزالة (المادة 2، القسم 1 من اتفاقية المجلس؛ المادة 3، القسم 1 من اللائحة الداخلية).

يجوز للمجلس تأييد قرار شركة Meta أو إلغائه (المادة 3، القسم 5 من اتفاقية المجلس)، ويكون قراره بهذا الشأن ملزمًا للشركة (المادة 4 من اتفاقية المجلس). يجب على شركة Meta أيضًا تقييم جدوى تطبيق قرارها على أي محتوى مماثل له سياق موازٍ (المادة 4 من اتفاقية المجلس). وقد تتضمن قرارات المجلس توصيات غير مُلزِمة يجب على شركة Meta الاستجابة لها (المادة 3، القسم 4 من اتفاقية المجلس؛ المادة 4). وعندما تلتزم Meta بتنفيذ التوصيات، يراقب المجلس هذا التنفيذ.

4. مصادر السُلطة والإرشادات

استند تحليل المجلس في هذه الحالة إلى المعايير والسوابق التالية:

1. قرارات مجلس الإشراف

تتضمن قرارات مجلس الإشراف السابقة الأكثر ارتباطًا بهذه الحالة ما يلي:

2. سياسات المحتوى لدى شركة Meta

يهدف معيار المجتمع بشأن العنف والتحريض الذي تتبعه شركة Meta إلى "منع أي عنف محتمل على أرض الواقع قد يرتبط بمحتوى يُنشر على منصاتنا". تذكر Meta أنها تزيل "اللغة التي تحرض على العنف الحقيقي أو تمهد الطريق لحدوثه" و"التهديدات لسلامة الفرد والمجتمع". تميّز Meta بين العبارات العفوية، المسموح بها بموجب هذه السياسة، وتلك التي تشكّل "خطرًا حقيقيًا بوقوع إيذاء بدني أو تهديدات مباشرة للسلامة العامة".

يحظر معيار المجتمع بشأن العنف والتحريض "التهديدات التي قد تؤدي إلى الموت (أو غيره من أشكال العنف شديد الخطورة)". وينص أيضًا على أن Meta تسمح بالتهديدات "الموجهة إلى بعض جماعات العنف، مثل الجماعات الإرهابية". قامت Meta بتحديث السياسة في 6 ديسمبر 2023 لتقول إن Meta لا تحظر التهديدات عند مشاركتها لتعزيز الوعي، تماشيًا مع توصية المجلس في حالة القصيدة الروسية. وقد أوضحت Meta في عمليات تواصل بينها وبين المجلس أن "الدعوات إلى العنف، والتهديدات التحريضية والتهديدات المشروطة بارتكاب أعمال عنف عالية أو متوسطة الخطورة مسموح بها إذا كانت موجهة إلى كيان مصنّف كمنظمة خطرة أو فرد خطر. ومع هذا، دائمًا ما تكون العبارات التي تنطوي على إبداء النية مخالفة للسياسة".

يحتوي معيار المجتمع بشأن العنف والتحريض على قاعدتين تتعلقان بتقديم تعليمات بشأن تصنيع الأسلحة واستخدامها.

تحظر القاعدة الأولى المحتوى الذي يقدم "تعليمات حول كيفية تصنيع أو استخدام الأسلحة حيثما توجد لغة تنص صراحةً على الهدف المتمثل في إصابة الأشخاص بشكل خطير أو قتلهم" أو "الصور التي تظهر أو تحاكي النتيجة النهائية". ولا يُسمح بهذا المحتوى إلا عندما تتم مشاركته في سياق محتوى "ترفيهي للدفاع عن النفس، أو لأغراض التدريب العسكري للدولة أو ألعاب الفيديو التجارية أو التغطية الإخبارية (منشور بواسطة صفحة أو يتضمن شعار الأخبار)."

تحظر القاعدة الثانية المحتوى الذي يقدم تعليمات حول كيفية تصنيع المتفجرات أو استخدامها "ما لم يكن هناك سياق يبيّن أن المحتوى مخصص لغرض بعيد عن العنف". وتتضمن أمثلة الأغراض البعيدة عن العنف أن يكون المحتوى جزءًا من "ألعاب فيديو تجارية أو غرض علمي/تعليمي واضح، أو ألعاب نارية أو مخصص لصيد الأسماك".

استند تحليل المجلس إلى التزام Meta بقيمة حرية الرأي، التي تصفها الشركة بأنها "ذات أهمية قصوى" إلى جانب قيمة السلامة.

3. مسؤوليات شركة Meta تجاه حقوق الإنسان

16. تُرسي مبادئ الأمم المتحدة التوجيهية بشأن الأعمال التجارية وحقوق الإنسان (UNGP)، التي أقرها مجلس حقوق الإنسان التابع للأمم المتحدة عام 2011، إطار عمل تطوعي لمسؤوليات الأنشطة التجارية الخاصة فيما يتعلق بحقوق الإنسان. في عام 2021، أعلنت شركة Meta عن سياسة حقوق الإنسان الخاصة بالشركة، والتي أعادت التأكيد من خلالها على الالتزام باحترام حقوق الإنسان على نحو يتفق مع مبادئ الأمم المتحدة التوجيهية بشأن الأعمال التجارية وحقوق الإنسان. ووفقًا لمبادئ الأمم المتحدة التوجيهية بشأن الأعمال التجارية وحقوق الإنسان، تزداد مسؤوليات الشركات العاملة في المناطق المتأثرة بالنزاعات تجاه حقوق الإنسان ("الأعمال التجارية وحقوق الإنسان والمناطق المتأثرة بالنزاعات: نحو مضاعفة العمل"، A/75/212).

استند تحليل المجلس لمسؤوليات شركة Meta تجاه حقوق الإنسان في هذه الحالة إلى المعايير الدولية التالية:

5. المعلومات المقدَّمة من المستخدمين

في الطعن الذي تقدم به إلى المجلس، ذكر كاتب المحتوى أن Meta أساءت فهم المنشور وأنه لم يكن يشارك سوى حقائق.

6. المعلومات المقدَّمة من Meta

تدعي Meta أن المنشور قد انتهك خطين من خطوط السياسة لمعيار المجتمع بشأن العنف والتحريض. أولاً، انتهك المنشور خط السياسة الذي يحظر تقديم تعليمات بشأن كيفية تصنيع الأسلحة أو استخدامها في حالة وجود دليل على أن الهدف يتمثل في إصابة الأشخاص بشكل خطير أو قتلهم. قالت Meta إن المنشور كان مخالفًا لأن "الشرح التوضيحي يوحي بأن الاستخدام المقصود يتمثل في إلقاء قنابل المولوتوف على هدف ما..." علاوة على ذلك، تتم مشاركة التعليمات "في سياق نزاع مسلح وبدعم واضح للقوات المسلحة السودانية". تبيّن لشركة Meta أن المنشور لم يندرج تحت أي من استثناءات خط السياسة، مثل المحتوى "الترفيهي للدفاع عن النفس"، أو "التدريبات العسكرية" أو "التغطية الإخبارية". عندما طرح المجلس سؤالاً على شركة Meta عن معنى المحتوى "الترفيهي للدفاع عن النفس" و"التدريبات العسكرية"، ذكرت Meta عدم وجود تعريف لديها لهذه المصطلحات "بخلاف المعنى الواضح لهذه الكلمات".

انتهك المحتوى أيضًا خط السياسة الذي يحظر تقديم تعليمات بشأن كيفية تصنيع المتفجرات أو استخدامها، دون وجود سياق واضح يبيّن أن المحتوى مخصص لغرض بعيد عن العنف. تعتبر Meta قنابل المولوتوف متفجرات بالمعنى المقصود في السياسة. وعلاوة على ذلك، خلُص تقييم Meta إلى أن المحتوى "تمت مشاركته بغرض تأجيج النزاع العنيف".

وفقًا للإرشادات الداخلية بشأن كيفية تطبيق سياسة العنف والتحريض المتبعة عند نشر المحتوى، تسمح Meta بالمحتوى الذي ينتهك السياسة "عند مشاركته في سياق نشر الوعي أو الإدانة". بعد التحديثات التي أدخلت على معايير المجتمع المعلنة للجمهور في 6 ديسمبر 2023، أصبحت السياسة الآن تعكس هذه الإرشادات: "لا تحظر [Meta] التهديدات عند مشاركتها في سياق نشر الوعي أو الإدانة". ومع ذلك، تقول Meta إن الشرح التوضيحي "يبيّن أن القصد لم يكن تعزيز الوعي وإنما تمكين أعمال العنف". وعندما سُئلت Meta عما إذا كانت استثنت أي دول أو نزاعات من تطبيق خطوط سياستها بشأن العنف والتحريض التي تحظر تقديم تعليمات بشأن تصنيع الأسلحة أو المتفجرات أو استخدامها، أخبرت Meta المجلس أنها لم تطبق أي استثناءات أو إعفاءات من السياسة لبلد معين، "بغض النظر عن النزاعات الدائرة".

استنادًا إلى الإصدار المحدّث من معيار مجتمع Meta بشأن العنف والتحريض، لا تحظر Meta التهديدات الموجهة إلى "بعض جماعات العنف، مثل الجماعات الإرهابية". وهذا يعني أن بعض التهديدات التي تستهدف منظمات خطرة أو كيانات فردية مصنّفة، مثل قوات الدعم السريع، مسموح بها على منصات Meta. ومع ذلك، أوضحت Meta أن هذا الاستثناء لا ينطبق على خطي السياسة بموجب معيار المجتمع بشأن العنف والتحريض فيما يتعلق بتقديم تعليمات بشأن كيفية تصنيع الأسلحة أو المتفجرات أو استخدامها. وبعبارة أخرى، يُحظر المحتوى الذي يشرح كيفية تصنيع الأسلحة أو استخدامها حتى لو كان موجهًا إلى منظمة خطرة أو كيان فردي مصنّف.

لم تقم Meta بإعداد مركز للعمليات والمنتجات والنزاهة، والذي يتم توظيفه استجابة للتهديدات في الوقت الفعلي، للتعامل مع اندلاع أعمال العنف في السودان في أبريل 2023. وفقًا لشركة Meta، فقد استطاعت الشركة "التعامل مع مخاطر المحتوى التي أمكن تحديدها من خلال العمليات الحالية". وتستمر جهود الشركة نحو الاستجابة إلى النزاع الحالي والبناء على العمل الذي تم وصفه لأول مرة في حالة فيديو صادم حول السودان التي نظر فيها المجلس. واستجابة للانقلاب العسكري الذي حدث في السودان في أكتوبر 2021، أنشأت Meta "فريقًا متعدد الوظائف للاستجابة للأزمات لرصد الوضع والإبلاغ عن أي اتجاهات ومخاطر ناشئة"، وهو مستمر إلى الآن. وبالإضافة إلى ذلك، اتخذت Meta الخطوات التالية، من بين أمور أخرى، للتعامل مع المخاطر المحتملة للمحتوى فيما يتعلق بالنزاع الدائر في السودان عام 2023: إزالة الصفحات والحسابات التي تمثل قوات الدعم السريع، بعد تصنيف Meta لها كمنظمة خطرة؛ والتحقيق في الحسابات المزيفة المحتملة التي قد تضلل الخطاب العام بشأن النزاع؛ وتحديد السودان كموقع عالي الخطورة مؤقتًا (للحصول على وصف لتصنيف "موقع عالي الخطورة مؤقتًا" وعلاقته بمعيار المجتمع بشأن العنف والتحريض، راجع قرار خطاب الجنرال البرازيلي، القسم 8.1). وقد أبلغت Meta المجلس أنها تعمل على تنفيذ تنسيق طويل الأجل للأزمات "لتوفير إشراف مخصص على العمليات طوال مدة اندلاع الأزمات الوشيكة والناشئة"، بناءً على توصية المجلس في حالة مكتب تيجراي لشؤون الاتصالات.

اعتبارًا من 30 مايو 2023، وصل السودان إلى أعلى تصنيف داخلي للأزمات لدى Meta. ومنذ ذلك الحين، حافظت Meta على أعلى مستوى لإدارة المخاطر واستمرت في ترقب الوضع بحثًا عن المخاطر التي يمثلها المحتوى كجزء من هذا العمل. ويعد بروتوكول سياسة الأزمات هو إطار العمل الذي اعتمدته Meta لوضع استجابات مُحدَّدة زمنيًا وقائمة على السياسات للتعامل مع الأزمات الناشئة. توجد ثلاث فئات للأزمات بموجب بروتوكول سياسة الأزمات - الفئة الأولى هي الأقل حدة والفئة الثالثة هي الأكثر حدة. وقد جاء تصنيف الأزمة في السودان ضمن الفئة الثالثة نتيجة لتفاقم الأزمة التي تستوفي معايير إدراج إضافية، مثل وجود "نزاع داخلي كبير" و "تدخل عسكري".

طرح المجلس ستة عشر سؤالاً كتابيًا على شركة Meta. تناولت الأسئلة أداة تصنيف الخطاب العدائي لدى Meta؛ وكيفية فهم Meta لمفهوم الدفاع عن النفس في ضوء معيار المجتمع بشأن العنف والتحريض؛ والإجراءات المتخذة استجابة للنزاع في السودان؛ وإنفاذ خطوط السياسة ذات الصلة بالأسلحة ضمن معيار المجتمع بشأن العنف والتحريض في حالات النزاع المسلح. وقد أجابت Meta عن جميع الأسئلة.

7. التعليقات العامة

تلقى مجلس الإشراف 10 تعليقات عامة على صلة بهذه الحالة. تم تقديم ثلاثة تعليقات من الولايات المتحدة وكندا، وتعليقين من دول آسيا والمحيط الهادئ والأوقيانوس، وتعليقين من أوروبا، وتعليق من أمريكا اللاتينية والكاريبي، وتعليق من الشرق الأوسط وشمال أفريقيا، وتعليق من دول أفريقيا جنوب الصحراء. يتضمن هذا المجموع تعليقات عامة إما مكررة أو مقدمة دون موافقة على نشرها أو تمت الموافقة على نشرها ولكنها لا تستوفي شروط المجلس لنشر التعليقات. يمكن تقديم التعليقات العامة إلى المجلس مع الموافقة أو عدم الموافقة على نشرها، مع نسبتها أو عدم نسبتها إلى أصحابها. تناولت التعليقات المقدمة الموضوعات التالية: ديناميات النزاع في السودان؛ ومسؤوليات Meta تجاه حقوق الإنسان في حالات النزاع المسلح، لا سيّما فيما يتعلق بحفظ المحتوى على الإنترنت من أجل المساءلة ذات الصلة بحقوق الإنسان؛ وتأثير تصميم أداة تصنيف Meta في الإشراف على المحتوى المرتبط بالنزاع.

لقراءة التعليقات العامة المقدمة في هذه الحالة، يرجى النقر هنا.

8. تحليل مجلس الإشراف

اختار مجلس الإشراف هذه الحالة لتقييم سياسات Meta بشأن المحتوى المرتبط بالأسلحة وممارسات الإنفاذ التي تتبعها الشركة في سياق النزاعات المسلحة. وتندرج هذه الحالة ضمن الأولوية الاستراتيجية لدى المجلس والمتمثلة في حالات الأزمات والنزاعات.

8.1 الامتثال لسياسات المحتوى لدى Meta

1. قواعد المحتوى

يرى المجلس أن المنشور انتهك سياسة Meta بشأن العنف والتحريض. يستوفي التأثير المجمّع للصورة والشرح التوضيحي في المنشور متطلبات وجود "لغة تنص صراحةً على الهدف" في خط السياسة الذي يحظر تقديم "تعليمات حول كيفية تصنيع أو استخدام الأسلحة حيثما توجد لغة تنص صراحةً على الهدف المتمثل في إصابة الأشخاص بشكل خطير أو قتلهم". تنظر Meta إلى قنابل المولوتوف على أنها أسلحة محظورة بموجب سياسة العنف والتحريض. يوفر المنشور دليلاً تفصيليًا بالخطوات لكيفية صنع قنابل المولوتوف واستخدامها. ويمكن استنتاج وجود نية لإصابة الأشخاص بشكل خطير أو قتلهم من هذا الدليل التفصيلي وكذلك النصيحة "بارتداء خوذة" لحماية الشخص الذي يلقي بالزجاجة الحارقة، مما يعني أن المنشور يدعو الأشخاص إلى اتباع التعليمات. وفقًا للخبراء الذين استشارهم المجلس، فإن الدعوات بالنصر في نهاية الشرح التوضيحي تعبر بوضوح عن دعم أحد طرفي النزاع المسلح.

ينتهك المحتوى أيضًا الحظر الذي تفرضه سياسة العنف والتحريض على تقديم "تعليمات بشأن كيفية تصنيع المتفجرات أو استخدامها ما لم يكن هناك سياق يبيّن أن المحتوى مخصص لغرض بعيد عن العنف". لا يتعلق اللجوء إلى العنف دعمًا للقوات المسلحة السودانية بغرض بعيد عن العنف؛ حيث تقتصر هذه الأغراض، كما هو موضح في السياسة، على المحتوى الذي يشكّل جزءًا من "ألعاب فيديو تجارية، أو غرض علمي/تعليمي واضح، أو ألعاب نارية أو مخصص لصيد الأسماك". ويشير المجلس إلى سريان هذا الحظر، وفقًا لشركة Meta، سواء صنّفت Meta الكيان الذي يستهدفه المحتوى أو لم تصنّفه كمنظمة خطرة أو فرد خَطِر بموجب معيار المجتمع بشأن المنظمات الخطرة والأفراد الخطرين. وقد أوضحت Meta للمجلس أن ذلك يرجع إلى أن "جزءًا من الضرر الناجم عن مشاركة هذه التعليمات يتمثل في إمكانية استعانة أشخاص آخرين بها يعتزمون إلحاق الضرر بأهداف أخرى". يرى المجلس أنه قد تم تطبيق هذه القاعدة على نحو يتفق مع سياسات المحتوى لدى شركة Meta عندما تعلق الأمر بإزالة المحتوى في هذه الحالة.

2. إجراء الإنفاذ

على الرغم من أن أداة تصنيف الخطاب العدائي قد حددت بشكل صحيح أن المحتوى ينتهك معيار المجتمع بشأن العنف والتحريض، فقد تم إبلاغ المستخدم عن طريق الخطأ بأن منشوره أزيل لاحتوائه على خطاب يحض على الكراهية. وفقًا لشركة Meta، حدث ذلك نتيجة خطأ في أنظمة الشركة. أبلغت Meta المجلس أنها غير قادرة على إرسال رسائل جديدة إلى نفس سلسلة رسائل صندوق الدعم عندما تدرك أنه قد حدث خطأ. ويشعر المجلس بالقلق من أن نظام إشعارات المستخدم لدى شركة Meta لا يسمح لها بتصحيح أخطائها عندما لا تُبلغ المستخدم بشكل صحيح عن معيار المجتمع الذي انتهكه. يحول ذلك دون معرفة المستخدمين للسبب الحقيقي لإزالة المحتوى الخاص بهم. كما أوضح المجلس سابقًا في عدد من الحالات (على سبيل المثال، الأرمن في أذربيجان، ومشروب آياهواسكا، والاقتباس النازي)، يجب أن تبلغ Meta المستخدمين بشفافية بسياسات المحتوى التي انتهكوها.

8.2 الامتثال لمسؤوليات شركة Meta تجاه حقوق الإنسان

يرى المجلس أن قرار Meta الأولي بإزالة هذا المنشور يتفق مع مسؤوليات الشركة تجاه حقوق الإنسان.

حرية التعبير (المادة 19 من العهد الدولي الخاص بالحقوق المدنية والسياسية)

تنص المادة 19 من العهد الدولي الخاص بالحقوق المدنية والسياسية على ضرورة توفير حماية واسعة النطاق لحرية التعبير، بما في ذلك التعبير السياسي. يتضمن هذا الحق "حرية التماس المعلومات والأفكار بمختلف أنواعها وتلقيها وتداولها". تظل أشكال الحماية هذه نشطة خلال النزاعات المسلحة، ويجب أن تستند إليها مسؤوليات Meta تجاه حقوق الإنسان، جنبًا إلى جنب مع القواعد المكمّلة والتي تعزز بعضها بعضًا والواردة في القانون الدولي الإنساني ويتم تطبيقها خلال تلك النزاعات ( التعليق العام رقم 31، لجنة حقوق الإنسان، 2004، الفقرة 11؛ التعليق على مبادئ الأمم المتحدة التوجيهية بشأن الأعمال التجارية وحقوق الإنسان، المبدأ 12؛ راجع أيضًا تقرير مقرر الأمم المتحدة الخاص حول التضليل الإعلامي وحرية الرأي والتعبير أثناء النزاعات المسلحة؛ التقرير A/77/288، الفقرات من 33 إلى 35 ‏(2022)؛ وتقرير المفوضية السامية للأمم المتحدة لحقوق الإنسان بشأن الحماية القانونية الدولية لحقوق الإنسان أثناء النزاع المسلح (2011) في صفحة 59).

صرّح مقرر الأمم المتحدة الخاص المعني بحرية التعبير أنه "خلال النزاعات المسلحة، يكون الناس في أشد حالاتهم ضعفًا وفي أمس الحاجة إلى معلومات دقيقة وجديرة بالثقة لضمان سلامتهم ورفاههم. ومع ذلك، في تلك الحالات بالتحديد يكون حقهم في حرية الرأي والتعبير، الذي يشمل "حرية التماس مختلف ضروب المعلومات والأفكار وتلقيها ونقلها" مقيدًا بشدة بظروف الحرب والإجراءات التي تتخذها أطراف النزاع وغيرها من الجهات الفاعلة للتلاعب بالمعلومات والحد من الوصول إليها لأهداف سياسية وعسكرية واستراتيجية" (تقرير A/77/288، الفقرة 1). يدرك المجلس أهمية ضمان قدرة الأشخاص على مشاركة المعلومات بشأن النزاعات بحرية، لا سيّما عندما تكون وسائل التواصل الاجتماعي هي المصدر النهائي للمعلومات، مع التأكد في الوقت ذاته من عدم انتشار المحتوى الذي يحتمل أن يؤدي إلى مزيد من العنف على أرض الواقع.

عند فرض الدولة لقيود على حرية التعبير، يجب أن تفي تلك القيود بمتطلبات الشرعية والهدف المشروع والضرورة والتناسب (المادة 19، الفقرة 3، العهد الدولي الخاص بالحقوق المدنية والسياسية). وتتم الإشارة إلى هذه المتطلبات غالبًا باسم "الاختبار الثلاثي". يستخدم المجلس إطار العمل هذا لتفسير التزامات Meta الطوعية تجاه حقوق الإنسان، سواء فيما يتعلق بقرارات المحتوى الفردي التي تخضع للمراجعة وما يعكسه ذلك عن نهج Meta الأوسع تجاه إدارة المحتوى. كما في الحالات السابقة (على سبيل المثال، الأرمن في أذربيجان، ومقطع فيديو لأسرى حرب أرمينيين)، يتفق المجلس مع المقرر الخاص للأمم المتحدة المعني بحرية التعبير على أنه على الرغم من أن "الشركات لا تتحمل التزامات الحكومات، لكن تأثيرها من النوع الذي يتطلب منها تقييم نفس النوع من الأسئلة المتعلقة بحماية حقوق مستخدميها في حرية التعبير" ( A/74/486، الفقرة 41). من خلال القيام بذلك، يحاول المجلس أن ينظر بحساسية إلى الطرق التي قد تختلف بها مسؤوليات حقوق الإنسان لدى شركات وسائل التواصل الاجتماعي الخاصة عن حكومة تقوم بتنفيذ التزاماتها تجاه حقوق الإنسان.

1. الشرعية (وضوح القواعد وسهولة الوصول إليها)

يتطلب مبدأ الشرعية أن تكون القواعد التي تقيِّد حرية التعبير واضحة ويسهُل الوصول إليها، لمن يطبقونها والذين يتأثرون بها على حدٍ سواء (التعليق العام رقم 34، الفقرة 25). يجب أن يتمكن المستخدمون من التنبؤ بعواقب نشر المحتوى على فيسبوك وInstagram. سلط مقرر الأمم المتحدة الخاص المعني بحرية التعبير الضوء على الحاجة إلى "الوضوح والتحديد" في سياسات الإشراف على المحتوى ( A/HRC/38/35، الفقرة 46).

يرى المجلس أن القاعدة العامة التي تحظر تقديم تعليمات بشأن تصنيع الأسلحة أو المتفجرات أو استخدامها في ظل ظروف معينة واضحة بالقدر الكافي وتفي بمتطلبات الشرعية. مع هذا، يلاحظ المجلس أيضًا أن بإمكان Meta تحسين الوضوح بشكل أكبر فيما يتعلق باستثناءات السياسة من خلال توضيح مفاهيم مثل المحتوى "الترفيهي للدفاع عن النفس" و"التدريب العسكري للدولة" في الصيغة المعلنة لمعيار المجتمع بشأن العنف والتحريض. لا يتفق المجلس مع ادعاء Meta بأن هذه المصطلحات لها "معنى واضح".

فيما يتعلق بمصطلح المحتوى "الترفيهي للدفاع عن النفس"، يعتقد المجلس أن على Meta توضيح الجهات الفاعلة التي يمكنها الاستفادة من هذا الاستثناء، والسياقات التي يتم فيها تطبيقه. علاوة على ذلك، لم يرد صراحةً في معيار المجتمع بشأن العنف والتحريض المعلن لعامة الجمهور أن هذا المصطلح لا يشمل سياقات الدفاع عن النفس في حالات النزاع المسلح. وفيما يتعلق بمصطلح "التدريب العسكري للدولة"، لم توضح Meta ما إذا كان يقتصر على القوات العسكرية للبلدان المعترف بها ولا كيفية تعامل الشركة مع جيوش الحكومات غير المعترف بها.

وقد ادعى أصحاب المصلحة الذين استشارهم المجلس وكذلك التقارير العامة أن Meta تسمح بتقديم تعليمات بشأن تصنيع الأسلحة أو استخدامها في إطار ممارسة الدفاع عن النفس في نزاعات مسلحة معينة. ردًا على أسئلة المجلس، نفت Meta صحة هذه التقارير. ولا يسع المجلس تحديد حقيقة هذه الادعاءات المتعارضة. على أية حال، من الضروري أن تطبق Meta قواعدها بشأن قضية مهمة مثل هذه بشكل متسق وصارم. ونظرًا لاستخدام منصات Meta لتبادل المعلومات خلال النزاعات المسلحة حين يحتمل أن يشارك كل من المقاتلين والمدنيين معلومات حول استخدام الأسلحة، أو المحتوى الذي ينطوي على عنف على نحو يستدعي الدفاع عن النفس، يجب على Meta توضيح ما تعنيه استثناءات المحتوى "الترفيهي للدفاع عن النفس" وأغراض "التدريب العسكري" في معيار المجتمع بشأن العنف والتحريض.

بالإضافة إلى ذلك، يرى المجلس أن استثناء سياسة Meta بموجب معيار المجتمع بشأن العنف والتحريض، والذي يسمح بالتهديدات "الموجهة إلى بعض جماعات العنف، مثل الجماعات الإرهابية"، غير واضح بالقدر الكافي، وبالتالي فهو لا يفي بمتطلب الشرعية. فهو لا يوضح مدى انطباق خط السياسة هذا على كل الأفراد الخطرين والمنظمات الخطرة المصنّفة بموجب معيار المجتمع بشأن المنظمات الخطرة والأفراد الخطرين. علاوة على ذلك، فإن قائمة المنظمات المصنّفة بموجب معيار المجتمع بشأن المنظمات الخطرة والأفراد الخطرين غير معلنة للجمهور. يزيد ذلك من عدم وضوح الرؤية للمستخدمين بشأن أي المنشورات سيتم حذفها أو الإبقاء عليها تبعًا لمدى إدراج الكيان المشار إليه في المنشور أو عدم إدراجه في قائمة Meta غير المعلنة للمنظمات الخطرة. يكرر المجلس المخاوف التي أثارها في قراره بشأن حالة فيديو مركز الشرطة في هايتي بشأن استثناء السياسة هذا.

2. الهدف المشروع

يجب أن تسعى القيود المفروضة على حرية التعبير (المادة 19 من العهد الدولي الخاص بالحقوق المدنية والسياسية) إلى تحقيق هدف مشروع. وتهدف سياسة العنف والتحريض إلى "منع أي ضرر محتمل على أرض الواقع" من خلال إزالة المحتوى الذي يشكّل "خطرًا حقيقيًا بوقوع ضرر بدني أو تهديدات مباشرة للسلامة العامة". وكما خلُص المجلس في السابق في حالة الجرائم المزعومة في ريا كوبو، فإن هذه السياسة تخدم الهدف المشروع المتمثل في حماية حقوق الآخرين، مثل الحق في الحياة (المادة 6 من العهد الدولي الخاص بالحقوق المدنية والسياسية).

3. الضرورة والتناسب

تقتضي مبادئ الضرورة والتناسب أن القيود التي تُفرَض على حرية التعبير "يجب أن تكون مناسبة لتحقيق وظيفة الحماية المنوطة بها، ويجب أن تكون أقل الوسائل تدخلاً مقارنة بغيرها من الوسائل التي يمكن أن تحقق النتيجة المنشودة، ويجب أن تكون متناسبة مع المصلحة التي ستحميها" (التعليق العام رقم 34، الفقرة 34). نظر المجلس أيضًا في العوامل الواردة في خطة عمل الرباط، بشأن ما قد يشكل تحريضًا على العنف خطة عمل الرباط، المفوضية السامية للأمم المتحدة لحقوق الإنسان، A/HRC/22/17/ملحق.4، 2013 مع مراعاة الفروق بين الالتزامات القانونية للدول ومسؤوليات الشركات تجاه حقوق الإنسان. على الرغم من أن المنشور في هذه الحالة لم يشكّل دعوة للكراهية على أساس الجنسية أو العرق أو الدين، توفر خطة عمل الرباط، مع هذا، إطار عمل مفيد في تقييم ما إذا كان المحتوى يحرض الآخرين على العنف أم لا.

في هذه الحالة، يرى المجلس أن إزالة Meta للمحتوى من فيسبوك تمتثل إلى متطلبات الضرورة والتناسب. ومن خلال الاستعانة باختبار خطة عمل الرباط الذي يتألف من ستة أجزاء كأساس للتحليل، وجد المجلس أنه يدعم إزالة هذا المنشور، على النحو الموضح أدناه.

بغض النظر عن نية منشئ المحتوى عند النشر، فإن الدليل التفصيلي الذي يوضح خطوات تصنيع قنابل المولوتوف واستخدامها شكّل خطرًا حقيقيًا لوقوع ضرر وشيك في وضع أمني متقلب بالفعل. تحظر الاتفاقية المتعلقة بأسلحة تقليدية معينة السلاح الحارق المشار إليه في هذا المنشور لكونه شديد الضرر وعشوائيًا كوسيلة للهجوم. ولا يشكل تأثير الانفجار خطرًا كبيرًا بإصابة المدنيين فحسب، بل يمكن أن يؤدي أيضًا إلى "معاناة لا داعي لها" أو "إصابة لا مبرر لها" للمقاتلين وهو ما يحظره القانون الإنساني الدولي العرفي. ويزيد تشجيع المدنيين الذين لم يتلقوا تدريبًا عسكريًا على نشر واستخدام الأسلحة الحارقة من هذه المخاطر.

يوجد خطر حقيقي بوقوع ضرر وشيك على الرغم من أن المستخدم هو فرد عادي غير مؤثر ولا يملك سوى عدد محدود من الأصدقاء والمتابعين. ويلاحظ المجلس قدرة أداة تصنيف الخطاب العدائي لدى Meta على اكتشاف المحتوى وإزالته في غضون دقائق من نشر المحتوى.

يلاحظ المجلس أيضًا أن المحتوى قد نشر في سياق نزاع مسلح مستمر. وقد أظهرت تقارير وتحليلاتالخبراء، في وقت نشر المحتوى بعد مُضي شهرين من النزاع المسلح، انتهاكات واسعة النطاق لحقوق الإنسان ارتكبتها كل من القوات المسلحة السودانية وقوات الدعم السريع. ووفقًا للأمم المتحدة، وجماعات حقوق الإنسان، والخبراء الذين استشارهم المجلس، واستنادًا إلى التعليقات العامة، بما في ذلك تعليقات منظمة مراقبة الإبادة الجماعية (PC-19006 وPC-19001)، فقد انخرط كلا طرفي النزاع المسلح في انتهاكات مختلفة للقوانين الإنسانية الدولية وقوانين حقوق الإنسان، مما أدى إلى تشريد ملايين الأشخاص أو اعتقالهم تعسفيًا أو انتهاكهم جنسيًا أو قتلهم. ولا يزال النزاع مستمرًا ولا تظهر أي علامات على نهايته على الرغم من إدانة مجلس الأمن التابع للأمم المتحدة وجماعات المجتمع المدني ومنظمات حقوق الإنسان. وفي هذا السياق، يرى المجلس أن المحتوى في هذه الحالة يحرّض على العنف، ويشكّل خطرًا وشيكًا يتمثل في مشاركة المدنيين مباشرةً في الأعمال العدائية باستخدام سلاح ضار ومحظور بشكل خاص، ويزيد من تصعيد النزاع.

لا تسمح Meta بالمحتوى المشابه للمنشور المعني في هذه الحالة في سياق الدفاع عن النفس عند قيامها بإنفاذ سياسة العنف والتحريض. ويرى المجلس في ذلك نهجًا معقولاً ويحث Meta على إنفاذه باستمرار. وبموجب مبادئ الأمم المتحدة التوجيهية بشأن الأعمال التجارية وحقوق الإنسان، تتضمن مسؤوليات Meta تجاه حقوق الإنسان احترام "معايير القانون الدولي الإنساني في حالات النزاع المسلح"، (التعليق على المبدأ 12، مبادئ الأمم المتحدة التوجيهية بشأن الأعمال التجارية وحقوق الإنسان). وينص القانون الدولي الإنساني على معايير للأطراف المشاركة في نزاعات مسلحة لتحقيق أقصى قدر من الحماية للمدنيين (على سبيل المثال، البروتوكول الإضافي الثاني لاتفاقيات جنيف الذي يحمي المدنيين أثناء النزاع المسلح؛ والمادة 2 من البروتوكول الثالث للاتفاقية المتعلقة بأسلحة تقليدية معينة التي تحظر استخدام الأسلحة الحارقة). يعتقد المجلس أن هذه المعايير قد تكون مفيدة أيضًا لشركات وسائل التواصل الاجتماعي لتحقيق هذا الهدف عند استخدام منصاتها في حالات النزاع المسلح. وتماشيًا مع هذه المعايير، يجب أن تستهدف Meta سياسة توفر أوسع حماية للمدنيين والممتلكات المدنية في حالات النزاع. وعند تطبيق تلك المعايير على سياسة الشركة بشأن العنف والتحريض، فإن هذا يعني حظر التهديدات الجدّية بغض النظر عن المستهدف بتلك التهديدات.

الوصول إلى سبل الانتصاف

يشعر المجلس بالقلق من عدم قدرة Meta تقنيًا من تصحيح الأخطاء في الإشعارات التي ترسلها إلى المستخدمين عندما تبلغهم بالقاعدة التي انتهكها المحتوى الذي ينشرونه. وتعتبر القدرة على إبلاغ المستخدمين بالانتهاك بشكل صحيح عنصرًا مهمًا من عناصر إنفاذ معايير مجتمع Meta وضمان العدالة والإجراءات القانونية الواجبة تجاه المستخدم. عند إرسال إشعارات محددة بشكل غير صحيح إلى المستخدمين، يتم تقويض قدرتهم على تقديم طعن والوصول إلى سبل انتصاف على منصات Meta. ويشجع المجلس Meta على استكشاف طرق مُمكنة تقنيًا تتيح لها تصحيح الإشعارات المرسلة إلى المستخدمين.

9. قرار مجلس الإشراف

أيد مجلس الإشراف القرار الذي اتخذته شركة Meta بإزالة المحتوى.

10. التوصيات

سياسة المحتوى

1. لإبلاغ المستخدمين بشكل أفضل بالمحتوى المحظور على منصاتها، يجب على Meta تعديل سياستها بشأن العنف والتحريض لتتضمن تعريفات كل من المحتوى "الترفيهي للدفاع عن النفس" و"التدريب العسكري" كاستثناءات لقواعدها التي تحظر على المستخدمين تقديم تعليمات عن تصنيع الأسلحة أو استخدامها وتوضيح أنها لا تسمح بأي استثناء للدفاع عن النفس فيما يتعلق بتعليمات طرق تصنيع الأسلحة أو استخدامها في سياق النزاع المسلح.

وسيعتبر المجلس أن هذه التوصية قد دخلت حيز التنفيذ عند تحديث معيار المجتمع بشأن العنف والتحريض ليعكس هذه التغييرات.

الإنفاذ

2. للتأكد من قدرة المستخدمين على فهم السياسات التي تم اتخاذ إجراء ضد المحتوى بسبب انتهاكها، يجب على Meta تطوير أدوات لتصحيح الأخطاء في الرسائل التي ترسلها إلى المستخدمين لتخبرهم بمعيار المجتمع الذي انتهكوه.

وسيعتبر المجلس أن هذه التوصية قد دخلت حيز التنفيذ عند تحديث نظام المراجعة والإشعارات المعني وفقًا لذلك.

*ملاحظة إجرائية:

تتولى لجان من خمسة أعضاء مسؤولية إعداد قرارات مجلس الإشراف وتعتمدها أغلبية أعضاء المجلس. ولا يلزم بالضرورة أن تُعبّر قرارات المجلس عن وجهات النظر الشخصية لجميع الأعضاء.

بالنسبة إلى القرار المتخذ بشأن هذه الحالة، تم إجراء بحث مستقل نيابةً عن المجلس. تلقى المجلس مساعدة من معهد أبحاث مستقل يقع مقره في جامعة جوتنبرج، والذي يعتمد على فريق مكون مما يزيد عن 50 عالم اجتماع من ست قارات، فضلاً عن أكثر من 3200 خبير محلي من جميع أنحاء العالم. وقد تلقى المجلس أيضًا مساعدة من شركة Duco Advisors، وهي شركة تركز على نقطة التقاء الجغرافيا السياسية والثقة والأمان والتكنولوجيا. وقد تم تقديم تحليلات أيضًا بواسطة Memetica، وهي مؤسسة متخصصة في الأبحاث مفتوحة المصدر عن اتجاهات وسائل التواصل الاجتماعي. تم توفير الخبرة اللغوية بواسطة شركة Lionbridge Technologies LLC، التي يتقن المتخصصون بها أكثر من 350 لغة ويعملون من 5000 مدينة في جميع أنحاء العالم.

العودة إلى قرارات الحالة والآراء الاستشارية المتعلقة بالسياسة