أيد
مكتب تيجراي لشؤون الاتصالات
أيد مجلس الإشراف قرار Meta بإزالة منشور يهدد بالعنف في الصراع الدائر في إثيوبيا
هذا القرار متاح أيضًا باللغة الأمهرية والأورومو والتجرينية.
ሙሉ ውሳኔውን በአማርኛ ለማንበብ፣ እዚህ ይጫኑ።
Murtii guutuu kan Afaan Oromoo dubbisuuf as tuqi
ብትግርኛ እተገብረ ውሳነ ምሉእ ከተንብቦ እንተ ደሊኻ ኣብዚ ጠውቕ።
ملخص الحالة
أيد مجلس الإشراف قرار Meta بإزالة منشور يهدد بالعنف في الصراع الدائر في إثيوبيا. ونظرًا لانتهاك المحتوى معيار مجتمع Meta بشأن العنف والتحريض، فقد كانت إزالته تتفق مع مسؤوليات الشركة تجاه حقوق الإنسان. وبوجه عام، فقد وجد المجلس أن على Meta بذل المزيد من الجهود للوفاء بمسؤولياتها تجاه حقوق الإنسان في حالات الصراع وأصدر توصيات بشأن السياسة للتعامل مع هذا الأمر.
حول هذه الحالة
في 4 فبراير 2022، أحالت Meta حالة إلى المجلس بشأن محتوى منشور على فيسبوك خلال فترة شهدت أعمال عنف متصاعد في الصراع الدائر في إثيوبيا، حيث كان القتال محتدمًا بين القوات التيجرينية والقوات الحكومية منذ نوفمبر 2020.
ظهر المنشور على الصفحة الرسمية لمكتب شؤون الاتصالات بولاية تيجراي الإقليمية وحصد أكثر من 300 ألف مشاهدة. ويناقش المنشور الخسائر التي تعرضت لها القوات الاتحادية ويشجع الجيش الوطني على "توجيه أسلحته" نحو "جماعة آبي أحمد". يشغل آبي أحمد منصب رئيس وزراء إثيوبيا. يحث المنشور أيضًا القوات الحكومية على الاستسلام ويزعم أنهم سيموتون إذا رفضوا.
بعد الإبلاغ عنه بواسطة المستخدمين واكتشافه بواسطة أنظمة Meta التلقائية، تم تقييم المحتوى بواسطة اثنين من المراجعين المتحدثين باللغة الأمهرية. وقرر الاثنان أن المنشور لم ينتهك سياسات Meta وبالتالي فلم يقوما بإزالته من المنصة.
في ذلك الوقت، كانت Meta تدير مركزًا للعمليات والمنتجات والنزاهة (IPOC) بشأن إثيوبيا. تستعين Meta بمراكز العمليات والمنتجات والنزاهة لتحسين الإشراف في المواقف عالية الخطورة. وتعمل هذه المراكز لفترة قصيرة (أيام أو أسابيع) وتضم خبراء لمراقبة منصات Meta والتعامل مع أي إساءة. من خلال مركز العمليات والمنتجات والنزاهة، تم إرسال المنشور لمراجعة الخبراء، وتبين أنه ينتهك سياسة Meta بشأن العنف والتحريض، مما أسفر عن إزالته بعد مرور يومين.
أهم النتائج
يتفق المجلس مع قرار Meta بإزالة المنشور من فيسبوك.
اتسم النزاع الدائر في إثيوبيا بالعنف الطائفي، وانتهاكات القانون الدولي. في هذا السياق، وفي ظل أهمية الصفحة واتساع نطاق وصولها، تزيد خطورة إسهام المنشور في حدوث أعمال عنف إضافية.
نتيجة لذلك، يتفق المجلس على أن إزالة المنشور ضرورية بموجب معيار مجتمع Meta بشأن العنف والتحريض، والذي يحظر "العبارات التي تدل على وجود نية لارتكاب أعمال عنف شديد الخطورة." تتفق الإزالة أيضًا مع قيم Meta؛ لأنه نظرًا للظروف، يتم تقديم قيم "السلامة" و"الكرامة" على قيمة "حرية الرأي". يرى المجلس أيضًا أن إزالة المنشور تتفق مع مسؤوليات Meta تجاه حقوق الإنسان وتمثل تقييدًا مبررًا لحرية التعبير.
تدرك Meta منذ فترة أن منصاتها تُستخدم لنشر الخطاب الذي يحض على الكراهية وإشعال جذوة العنف أثناء النزاع. وقد اتخذت الشركة خطوات إيجابية لتحسين الإشراف على المحتوى في بعض المناطق التي تشهد نزاعات. ومع هذا، يرى المجلس إجمالاً أن Meta تضطلع بمسؤولية تتعلق بحقوق الإنسان لإنشاء نظام يتسم بالشفافية ويستند إلى المبادئ للإشراف على المحتوى في المناطق التي تشهد نزاعات وذلك للحد من مخاطر استخدام منصاتها لتأجيج العنف أو انتهاكات القانون الدولي. وينبغي عليها بذل المزيد من الجهود للوفاء بهذه المسؤولية.
على سبيل المثال، لا توفر Meta القدر الكافي من المعلومات عن كيفية تنفيذ سياستها بشأن العنف والتحريض في حالات النزاع المسلح، أو ما يتوفر من توقعات بشأن السياسة أو كيفية استخدامها. يوحي نهجها الحالي للإشراف على المحتوى في مناطق النزاعات بعدم الاتساق؛ وقد اتهم المراقبون الشركة بالتعامل مع النزاع الروسي الأوكراني بشكل مختلف عن باقي النزاعات.
في حين تقول Meta أنها تُعِد سجلاً للبلدان "المعرضة للخطر"، والذي تستند إليه في تخصيص الموارد، فإنها لم توفر للمجلس ما يكفي من معلومات لتقييم عدالة أو كفاءة هذه العملية. وقد أدى مركز العمليات والمنتجات والنزاهة في هذه الحالة إلى إزالة المحتوى. مع هذا، فقد ظل المحتوى معروضًا على المنصة لمدة يومين. يوحي ذلك بعدم كفاية نظام البلدان "المعرضة للخطر" ومراكز العمليات والمنتجات والنزاهة للتعامل مع حالات النزاع. وفقًا لشركة Meta، فإن مراكز العمليات والمنتجات والنزاهة "لم تُصمَم لتكون حلاً مستدامًا طويل الأجل للتعامل مع نزاعات تمتد لعدة سنوات." يرى المجلس أنه قد يلزم Meta الاستثمار في آلية أكثر استدامة.
قرار مجلس الإشراف
أيد مجلس الإشراف القرار الذي اتخذته شركة Meta بإزالة المنشور.
وقدم المجلس أيضًا التوصيات التالية:
- يجب على Meta نشر معلومات عن بروتوكول سياسة الأزمات في مركز الشفافية.
- يجب على Meta تقييم جدوى إنشاء آلية داخلية مستدامة توفر لها الخبرة والقدرة الاستيعابية والتنسيق اللازم لمراجعة المحتوى والتعامل معه بفعّالية أثناء نشوب النزاعات.
*توفر ملخصات الحالة نظرة عامة على الحالة ولا تُشكّل سابقة قانونية.
القرار الكامل للمجلس بشأن الحالة
1. ملخص القرار
أيد مجلس الإشراف قرار Meta بإزالة المحتوى من فيسبوك لانتهاك معيار المجتمع بشأن العنف والتحريض. ويرى المجلس أن إزالة المحتوى في هذه الحالة تتفق مع مسؤوليات شركة Meta تجاه حقوق الإنسان في ظل اندلاع نزاع مسلح. ويرى المجلس أيضًا أن Meta تتحمل مسؤولية إنشاء نظام يتسم بالشفافية ويستند إلى المبادئ للإشراف على المحتوى في المناطق التي تشهد نزاعات وذلك للتخفيف من حدة مخاطر استخدام منصاتها لتأجيج العنف أو ارتكاب انتهاكات للقانون الدولي لحقوق الإنسان والقانون الدولي الإنساني. ويكرر المجلس ضرورة اتباع Meta لكل التدابير الرامية إلى الوفاء بمسؤولياتها تجاه التحلي بأعلى درجات العناية الواجبة بحقوق الإنسان في هذا السياق.
2. وصف الحالة ومعلومات أساسية عنها
في 4 فبراير 2022، أحالت Meta حالة إلى المجلس بشأن محتوى نُشر على فيسبوك في 5 نوفمبر 2021. وقد نُشر المحتوى من قِبل صفحة مكتب تيجراي لشؤون الاتصالات، والتي تشير إلى أنها الصفحة الرسمية لمكتب شؤون الاتصالات بولاية تيجراي الإقليمية (TCAB). نُشر المحتوى باللغة الأمهرية، وهي اللغة الرسمية للحكومة الاتحادية. ومكتب شؤون الاتصالات بولاية تيجراي عبارة عن وزارة ضمن حكومة تيجراي الإقليمية. منذ نوفمبر 2020، انخرطت جبهة تحرير شعب تيجراي (TPLF) وجمهورية إثيوبيا الاتحادية الديمقراطية ("الحكومة الاتحادية") في نزاع مسلح. وجبهة تحرير شعب تيجراي هي الحزب الحاكم في تيجراي، في حين أن قوات الدفاع التيجرينية هي الجناح العسكري لجبهة تحرير شعب تيجراي.
يناقش المنشور الخسائر التي تكبدتها قوات الدفاع الوطنية الاتحادية بقيادة رئيس الوزراء آبي أحمد في نزاعها المسلح مع جبهة تحرير شعب تيجراي. يشجّع المنشور الجيش الوطني على "توجيه أسلحته نحو جماعة آبي أحمد الفاشية" لتعويض الأشخاص الذين تضرروا بسببها. ويواصل المنشور ليحث القوات المسلحة على الاستسلام إلى جبهة تحرير شعب تيجراي إذا كانت تأمل في إنقاذ حياتها، حيث أضاف المنشور: "إذا رفضت، على الجميع أن يعلم أن مصير القوات المسلحة، في النهاية، سيكون الموت."
بلغ التوتر بين الحكومة الاتحادية وجبهة تحرير شعب تيجراي ذروته عندما أجلت الحكومة الاتحادية الانتخابات عام 2020، معللة هذا التأجيل بانتشار جائحة فيروس كورونا. وقد اتهم قادة المعارضة رئيس الوزراء باستغلال الجائحة كذريعة لتمديد مدة ولايته. وعلى الرغم من إعلان الحكومة الاتحادية، فقد واصلت حكومة تيجراي الإقليمية إجراء الانتخابات في الإقليم، والتي حققت فيها جبهة تحرير شعب تيجراي فوزًا ساحقًا.
أعلن رئيس الوزراء آبي أحمد عملية عسكرية ضد القوات التيجرينية في نوفمبر 2020 للرد على هجوم تعرضت له قاعدة عسكرية اتحادية في تيجراي. توغلت القوات الاتحادية للاستيلاء على ميكيلي عاصمة تيجراي. بعد ثمانية أشهر من القتال، انسحبت القوات الاتحادية وحلفاؤها من ميكيلي واستعادت جبهة تحرير شعب تيجراي السيطرة عليها. في مايو 2021، صنفت الحكومة الاتحادية جبهة تحرير شعب تيجراي كمنظمة إرهابية.
في 2 نوفمبر 2021، قبل أيام من نشر المحتوى، فرض رئيس الوزراء حالة طوارئ على مستوى البلاد بعد أن سيطرت جبهة تحرير شعب تيجراي على أجزاء معينة من إقليمي أمهرة وعفار، إلى جانب تيجراي. دعت الحكومة الاتحادية المواطنين أيضًا إلى حمل السلاح حيث بدأت جبهة تحرير شعب تيجراي تشق طريقها نحو العاصمة أديس أبابا. في اليوم الذي نُشر فيه المحتوى في 5 نوفمبر، أنشأت تسع مجموعات معارضة، بما في ذلك جبهة تحرير شعب تيجراي، تحالفًا للضغط على الحكومة الاتحادية وعزل رئيس الوزراء.
تضم صفحة مكتب شؤون الاتصالات بوالية تيجراي نحو 260 ألف متابع وهي صفحة عامة، مما يعني أنه يمكن لأي مستخدم على فيسبوك مشاهدتها. تحمل الصفحة علامة التحقق الزرقاء، والتي تؤكد أن الصفحة أو الملف الشخصي عبارة عن الحضور الرسمي للشخص أو الكيان. شوهد المحتوى أكثر من 300 ألف مرة وتمت مشاركته أقل من 1000 مرة.
ومنذ 5 نوفمبر، تم الإبلاغ عن المحتوى من 10 مستخدمين لانتهاكه سياسات العنف والتحريض، والأفراد الخطرين والمنظمات الخطرة، والخطاب الذي يحض على الكراهية. علاوة على ذلك، صنفت أنظمة Meta التلقائية المحتوى باعتبار أنه يحتمل أن يكون مخالفًا، وأرسلته للمراجعة. بعد مراجعة المحتوى بواسطة اثنين من المراجعين، من الناطقين باللغة الأمهرية، قررت Meta أن المحتوى لم ينتهك سياساتها ولم تقم بإزالته من المنصة.
في 4 نوفمبر، قبل يوم من نشر المحتوى، أنشأت Meta مركزًا للعمليات والمنتجات والنزاهة للمراقبة والاستجابة في الوقت الفعلي للوضع سريع التطور في إثيوبيا. وفقًا لشركة Meta، مركز العمليات والمنتجات والنزاهة عبارة عن مجموعة من الخبراء المتخصصين داخل الشركة يتم تجميعهم لفترة قصيرة للمراقبة والاستجابة في الوقت الفعلي للإساءة المحتملة على منصات Meta. من خلال مركز العمليات والمنتجات والنزاهة، تم تصعيد المحتوى لمراجعة إضافية بواسطة خبراء في السياسة والموضوع المنظور. وفي أعقاب هذه المراجعة، قررت Meta أن المحتوى انتهك سياسة العنف والتحريض، والتي تحظر "العبارات التي تدل على وجود نية لارتكاب أعمال عنف شديد الخطورة." ظل المحتوى على المنصة ليومين تقريبًا قبل أن تتم إزالته.
منذ بداية النزاع في نوفمبر 2020، وردت تقارير موثوقة عن ارتكاب انتهاكات للقانون الدولي لحقوق الإنسان والقانون الإنساني الدولي من قبل جميع أطراف النزاع. كشف تقرير التحقيق المشترك الذي أجرته لجنة حقوق الإنسان الإثيوبية ومكتب مفوض الأمم المتحدة السامي لحقوق الإنسان عن حالات موثقة للتعذيب وغيره من ضروب المعاملة القاسية أو اللاإنسانية أو المهينة، وعمليات الإعدام خارج نطاق القضاء للمدنيين والمقاتلين الذين وقعوا في الأسر، وعمليات اختطاف، واختفاء قسري، وعنف جنسي وعنف على أساس الجنس، من بين جرائم دولية أخرى (انظر أيضًا مرصد إثيوبيا للسلام). وقد وجد فريق التحقيق المشترك أن أشخاصًا لم يشاركوا بشكل مباشر في الأعمال العدائية قد تعرضوا للقتل على يد طرفي النزاع. وقد اشتمل ذلك على عمليات قتل على أساس عرقي وبدافع الانتقام. وقد ارتكبت كل من القوات الاتحادية والقوات التيجرينية "أعمال تعذيب وسوء معاملة ضد المدنيين والمقاتلين الأسرى في مواقع مختلفة في تيجراي، بما في ذلك المعسكرات الحربية، وأماكن الاحتجاز، ومنازل الضحايا ، فضلاً عن المواقع السرية وغير المحددة". وقد تعرض أفراد يُعتقد أنهم ينتمون إلى جبهة تحرير شعب تيجراي للاختفاء القسري أو الاحتجاز التعسفي، وتعرضت زوجات الرجال المختفين أو المحتجزين للعنف الجنسي من قبل القوات المسلحة الاتحادية. وبالمثل، تعرضت زوجات رجال القوات المسلحة الاتحادية للاعتداء الجنسي أو الاغتصاب من قبل مقاتلي إقليم تيجراي. وقد تعرضت الكثير من النساء للاغتصاب الجماعي. كما رفضت القوات المسلحة الاتحادية تسهيل الحصول على سبل الإغاثة الإنسانية في المناطق المتضررة من النزاع. وقد شاركت أيضًا جماعات مسلحة ومليشيات أخرى، وقدمت إريتريا الدعم للجيش الوطني الإثيوبي أثناء النزاع. وعلى الرغم من أن التحقيق المشترك قد تناول الأحداث التي وقعت بين 3 نوفمبر 2020 و28 يونيو 2021، فإن ما تم التوصل إليه من نتائج يوفر سياقًا مهمًا لهذه الحالة وما تلى ذلك من تصعيد لاحق في الأعمال العدائية في نوفمبر 2021، عندما استولت جبهة تحرير شعب تيجراي على أراضي خارج تيجراي.
3. سُلطة ونطاق مجلس الإشراف
يتمتع المجلس بسلطة مراجعة القرارات التي تحيلها Meta للمراجعة (المادة 2، القسم 1 من اتفاقية المجلس؛ المادة 2، القسم 2.1.1 من اللائحة الداخلية). يجوز للمجلس تأييد قرار شركة Meta أو إلغائه (المادة 3، القسم 5 من اتفاقية المجلس)، ويكون قراره بهذا الشأن ملزمًا للشركة (المادة 4 من اتفاقية المجلس). يجب على شركة Meta أيضًا تقييم جدوى تطبيق قرارها على أي محتوى مماثل له سياق موازٍ (المادة 4 من اتفاقية المجلس). وقد تتضمن قرارات المجلس بيانات استشارية بشأن السياسية تضم توصيات غير ملزمة يجب على شركة Meta الرد عليها (اتفاقية المجلس، المادة 3، القسم 4؛ والمادة 4).
4. مصادر السُلطة
أخذ مجلس الإشراف مصادر السُلطة التالية في الاعتبار:
1.قرارات مجلس الإشراف:
تتضمن قرارات مجلس الإشراف السابقة الأكثر ارتباطًا بهذه الحالة ما يلي:
- "الجرائم المزعومة في ريا كوبو" [ القرار الصادر بشأن الحالة 2021-014-FB-UA]: أوصى المجلس بضرورة أن تعكس معايير مجتمع فيسبوك أن الشائعات التي لا يمكن التحقق من صحتها تشكّل خطرًا أكبر على الحق في الحياة وأمان الأشخاص في سياقات الحرب والنزاع العنيف. أوصى المجلس أيضًا شركة Meta بأن تكلّف بإجراء تقييم مستقل للعناية الواجبة بحقوق الإنسان بشأن دور منصاتها في زيادة مخاطر ارتكاب أعمال عنف في إثيوبيا.
- "تعليق حسابات الرئيس الأسبق ترامب" [ القرار الصادر بشأن الحالة 2021-001-FB-FBR]: أوصى المجلس شركة Meta بضرورة وضع وإنشاء سياسة لحالات الأزمات. وأصدر المجلس أيضًا توصية بشأن الحاجة إلى جمع المعلومات والاحتفاظ بها ومشاركتها، متى كان ذلك مناسبًا، للمساعدة في التحقيقات وعمليات التقاضي المحتملة بشأن الانتهاكات الجسيمة للقانون الجنائي الدولي والقانون الدولي لحقوق الإنسان والقانون الإنساني من قبل السلطات المختصة وآليات المساءلة.
- "حالة الفيديو الصادم بشأن السودان" [ القرار الصادر بشأن الحالة 2022-002-FB-MR]: وقد كرر المجلس توصيته في حالة "تعليق حسابات الرئيس الأسبق ترامب" التي أوصى فيها شركة Meta "بوضع ونشر سياسة للتعامل مع مواقف الأزمات "التي لا تحول فيها عملياتها المعتادة دون وقوع ضرر وشيك أو تتجنب وقوعه."
2.سياسات المحتوى لدى Meta:
معايير مجتمع فيسبوك:
بموجب سياسة العنف والتحريض، تشير Meta إلى أنها ستقوم بإزالة أي محتوى "يحرض على عنف خطير أو يساعد عليه." تحظر السياسة "التهديدات التي قد تفضي إلى الموت (والأشكال الأخرى من العنف شديد الخطورة) والتي تستهدف الأشخاص أو الأماكن". وتحظر أيضًا "العبارات التي تدل على وجود نية لارتكاب أعمال عنف شديد الخطورة."
3.قيم شركة Meta:
تم توضيح قيم شركة Meta في مقدمة معايير مجتمع فيسبوك. وقد جرى وصف قيمة "حرية الرأي" بأنها "ذات أهمية قصوى":
يتمثل هدف معايير مجتمعنا دائمًا في توفير مكان لحرية الرأي يستطيع الأشخاص من خلاله إبداء وجهات نظرهم. [ونحن نريد] أن يتمتع الأشخاص بالقدرة على التحدث بحرية عن القضايا التي تهمهم، حتى في حالة عدم اتفاق البعض أو اعتراضهم.
تُقيد شركة Meta "حرية الرأي" لخدمة أربع قيم أخرى، ترتبط اثنتان منها بهذه الحالة:
"السلامة": ونعمل على إزالة المحتوى الذي قد يسهم في مخاطر إلحاق ضرر بالأمان البدني للأشخاص.
"الكرامة" : ونتوقع من الجميع احترام كرامة الآخرين وعدم الإساءة إليهم أو الحط من قدرهم.
4.المعايير الدولية لحقوق الإنسان
تُرسي مبادئ الأمم المتحدة التوجيهية بشأن الأعمال التجارية وحقوق الإنسان (UNGP)، التي أقرها مجلس حقوق الإنسان التابع للأمم المتحدة عام 2011، إطار عمل تطوعي لمسؤوليات الأنشطة التجارية الخاصة فيما يتعلق بحقوق الإنسان. في عام 2021، أعلنت شركة Meta عن سياسة حقوق الإنسان الخاصة بالشركة، والتي أعادت التأكيد من خلالها على الالتزام باحترام حقوق الإنسان على نحو يتفق مع مبادئ الأمم المتحدة التوجيهية بشأن الأعمال التجارية وحقوق الإنسان. وبشكل واضح، تفرض مبادئ الأمم المتحدة التوجيهية بشأن الأعمال التجارية وحقوق الإنسان مسؤولية أكبر على الشركات العاملة في المناطق المتأثرة بالنزاعات ("الأعمال التجارية وحقوق الإنسان والمناطق المتأثرة بالنزاعات: نحو مضاعفة العمل، A/75/212). وقد استند تحليل المجلس لمسؤوليات شركة Meta تجاه حقوق الإنسان في هذه الحالة إلى معايير حقوق الإنسان التالية:
- الحق في حرية التعبير: المادة 19 من العهد الدولي الخاص بالحقوق المدنية والسياسية (ICCPR)، التعليق العام رقم 34، اللجنة المعنية بحقوق الإنسان، 2011؛ تقارير مقرر الأمم المتحدة الخاص المعني بحرية الرأي والتعبير: A/HRC/38/35 (2018) وA/73/348 (2018).
- الحق في الحياة: المادة 6، العهد الدولي الخاص بالحقوق المدنية والسياسية، التعليق العام رقم 36، اللجنة المعنية بحقوق الإنسان، (2018).
- الحق في عدم التعرض للتعذيب أو العقوبة القاسية أو اللاإنسانية أو المهينة: المادة 7، العهد الدولي الخاص بالحقوق المدنية والسياسية.
- الحق في الأمن الشخصي: المادة 9، الفقرة 1، العهد الدولي الخاص بالحقوق المدنية والسياسية.
5. المعلومات المقدَّمة من المستخدمين
بعد إحالة شركة Meta الحالة وقبول المجلس لها، تم إرسال رسالة إلى المستخدم لإخطاره بمراجعة المجلس ومنحه فرصة لتقديم بيان إلى المجلس. ولم يقدم المستخدم بيانًا.
6. المعلومات المقدَّمة من Meta
في بيانها الذي أحالت به الحالة إلى المجلس، أشارت Meta إلى أن اتخاذ قرار بشأن بالمحتوى كان أمرًا صعبًا لأنه ينطوي على إزالة "خطاب حكومي رسمي يمكن اعتباره جدير بالنشر"، لكنه قد يشكل خطرًا يتمثل في التحريض على العنف أثناء صراع دائر. ذكرت Meta أنها لم تفكر في منح استثناء الأهمية الإخبارية لأن هذا الاستثناء لا يسري على المحتوى الذي يشكّل خطورة على صعيد الإسهام في حدوث ضرر بدني.
منذ أواخر 2020، ذكرت Meta أنها تعاملت مع إثيوبيا كبلد معرض للخطر من الطبقة الأولى، وهو أعلى مستويات الخطر. وفقًا لشركة Meta، فإن تصنيف البلدان كبلدان معرضة للخطر هو جزء من عملية ترتيب أولوية الاستثمار في موارد المنتجات على المدى الطويل. على سبيل المثال، استجابة للخطر الشديد في إثيوبيا، طورت Meta أدوات تصنيف لغوية (أدوات تعلُّم آلي تم تدريبها على اكتشاف الانتهاكات المحتملة لمعايير المجتمع تلقائيًا) باللغة الأمهرية ولغة الأورومو، وهي اللغات الأوسع انتشارًا في إثيوبيا. وفقًا للشركة، تم إطلاق أدوات التصنيف الأولية باللغة الأمهرية ولغة الأورومو في أكتوبر 2020. وفي يونيو 2021، أطلقت Meta ما تشير إليه باسم أدوات تصنيف "الخطاب العدائي" باللغة الأمهرية ولغة الأورومو (أدوات تعلُّم آلي مدربة على اكتشاف المحتوى الخاضع لسياسات الخطاب الذي يحض على الكراهية والعنف والتحريض والإساءة والمضايقة). أنشأت الشركة أيضًا مركزًا للعمليات والمنتجات والنزاهة بشأن إثيوبيا في 4 نوفمبر 2021 استجابة للتصعيد في النزاع. تعمل مراكز العمليات والمنتجات والنزاهة عادةً لعدة أيام أو أسابيع. ويتم تشكيل مركز العمليات والمنتجات والنزاهة إما لأجل أحداث مخطط لها، مثل حالات انتخابات معينة، أو استجابة لأحداث خطرة وغير مخطط لها. ويمكن طلب تشكيل مركز للعمليات والمنتجات والنزاهة بواسطة موظف لدى Meta. تتم مراجعة الطلب بواسطة مجموعة متعددة المستويات تضم عدة مشاركين داخل الشركة بما في ذلك ممثلين من فِرق العمليات والسياسة والمنتجات. هناك مستويات مختلفة من مراكز العمليات والمنتجات والنزاهة، وهو ما يوفر مستويات متصاعدة من التنسيق والتواصل بشأن مراقبة المحتوى على المنصة. كان مركز العمليات والمنتجات والنزاهة الذي تم تشكيله في نوفمبر 2021 بشأن إثيوبيا من المستوى الثالث، والذي "يتضمن أعلى مستويات التنسيق والتواصل داخل Meta." وكما أوضحت Meta، فإن مراكز العمليات والمنتجات والنزاهة عبارة عن "حل قصير الأجل" يهدف إلى "فهم مجموعة كبيرة من القضايا وكيفية التعامل معها أثناء الأزمات أو المواقف عالية الخطورة. ولم تُصمَم مراكز العمليات والمنتجات والنزاهة لتكون حلاً مستدامًا طويل الأجل للتعامل مع نزاعات تمتد لعدة سنوات."
أشارت Meta إلى تحليل المجلس في حالة "الجرائم المزعومة في ريا كوبو" لدعم الافتراض القائل بأن الفصل في الشد والجذب بين حماية حرية التعبير والحد من التهديد الناجم عن الصراع الطائفي يتطلب دراسة متأنية لخصوصيات الصراع. أشارت Meta أيضًا إلى الجرائم الوحشية الموثقة التي ارتكبتها كافة أطراف النزاع. أخبرت Meta المجلس أنه بالنظر إلى طبيعة التهديد، ومدى تأثير المتحدث، والموقف المتصاعد بوتيرة سريعة في إثيوبيا حين نُشر المحتوى، فإن قيمة "السلامة" تتفوق على الاعتبارات الأخرى وتعتبر إزالة المنشور هي أفضل شيء للوفاء بهذه القيمة مقارنة بتركه على المنصة، بغض النظر عن القيمة المحتملة التي يمثلها المحتوى على صعيد تحذير الأشخاص في إثيوبيا من النزاع المستقبلي.
طرح المجلس 20 سؤالاً على شركة Meta. أجابت Meta عن 14 سؤالاً بشكل كامل وعن ستة أسئلة بشكل جزئي. تعلقت الإجابات الجزئية بنهج الشركة في الإشراف على المحتوى في مواقف النزاع المسلح، وفرض قيود على الحسابات نتيجة انتهاك سياسات المحتوى، وعملية التحقق الشامل.
7. التعليقات العامة
تلقى مجلس الإشراف ونظر في سبعة تعليقات عامة ذات صلة بهذه الحالة. تم إرسال تعليق واحد من منطقة آسيا والمحيط الهادئ والأوقيانوس، وثلاثة تعليقات من أوروبا، وتعليق من دول أفريقيا الواقعة جنوب الصحراء، وتعليقين من الولايات المتحدة وكندا.
تناولت التعليقات الموضوعات التالية: عدم اتساق نهج Meta في التعامل مع النزاعات المسلحة المختلفة؛ والخطر المتزايد المقترن بالتهديدات الجدية بارتكاب أعمال عنف بين الأطراف في حالات النزاع المسلح؛ المشكلات التي تكتنف إشراف Meta على المحتوى في إثيوبيا ودور وسائل التواصل الاجتماعي في بيئات المعلومات المغلقة؛ والخلفية الواقعية للنزاع في إثيوبيا؛ بما في ذلك الأضرار التي عانى منها شعب تيجراي ودور الخطاب الذي يحض على الكراهية ضد شعب تيجراي على فيسبوك في نشر العنف؛ وضرورة دراسة قوانين النزاع المسلح عند وضع سياسات الإشراف على الخطاب أثناء اندلاع نزاع مسلح.
لقراءة التعليقات العامة المقدمة في هذه الحالة، يرجى النقر هنا.
في أبريل 2022، وفي سياق التفاعل المستمر من المشاركين، استشار المجلس ممثلي منظمات التأييد والجهات الأكاديمية والمنظمات الحكومية الدولية ومجموعة أخرى من الخبراء بشأن قضية الإشراف على المحتوى في سياق النزاع المسلح. تضمنت المناقشات معاملة خطاب طرفي النزاع وتطبيق سياسة العنف والتحريض في حالات النزاع.
8. تحليل مجلس الإشراف
درس المجلس مسألة ما إذا كان ينبغي استعادة هذا المحتوى، والآثار الأوسع لنهج Meta في الإشراف على المحتوى، من خلال ثلاث رؤى: سياسات المحتوى لدى شركة Meta، وقيَمها، ومسؤولياتها تجاه حقوق الإنسان.
8.1 الامتثال لسياسات المحتوى لدى شركة Meta
يرى المجلس أن إزالة المحتوى من المنصة تتفق مع معيار المجتمع بشأن العنف والتحريض. تحظر السياسة "التهديدات التي قد تفضي إلى الموت (والأشكال الأخرى من العنف شديد الخطورة) والتي تستهدف الأشخاص أو الأماكن"، بما في ذلك "العبارات التي تدل على وجود نية لارتكاب أعمال عنف شديد الخطورة." ويرى المجلس أنه يمكن للآخرين تفسير المحتوى بشكل معقول كدعوة قد تؤجج أو تشجع على ارتكاب أعمال عنف فعلي في سياق يشهد بالفعل أعمال عنف ضمن نزاع مسلح. على هذا النحو، ينتهك المحتوى الحظر الذي تفرضه Meta على "العبارات التي تدل على وجود نية لارتكاب أعمال عنف شديد الخطورة."
8.2 الامتثال لقيم شركة Meta
خلُص المجلس إلى أن إزالة هذا المحتوى من المنصة تتفق مع قيم "السلامة" و"الكرامة" التي تعتنقها Meta.
يدرك المجلس أهمية "حرية الرأي" لا سيّما في بلد له سجّل متواضع فيما يتعلق بحرية الصحافة والحريات المدنية وحيث تمثل وسائل التواصل الاجتماعي وسيلة مهمة لنقل المعلومات بشأن النزاع المسلح الدائر. مع هذا، وفي سياق النزاع المسلح، الذي ينطوي على سجّل من العنف الطائفي وانتهاكات القانون الدولي، يتم تقديم قيم "السلامة" و"الكرامة" في هذه الحالة لحماية المستخدمين من المحتوى الذي يشكّل خطرًا متزايدًا للتسبب في ارتكاب أعمال عنف. يمكن تفسير المحتوى في هذه الحالة كدعوة لقتل "جماعة آبي أحمد." ويمكن تفسيره أيضًا كتحذير من العقوبة التي ستحل بالأشخاص الذين لن يستسلموا لجبهة تحرير شعب تيجراي، وبالتالي فهو يمثل خطرًا على الأرواح والسلامة البدنية للقوات الاتحادية الإثيوبية والقادة السياسيين. وعلى الرغم من أن المحتوى قد جرت مشاركته بواسطة الهيئة الإقليمية الحاكمة، لم يكن المنشور في حد ذاته يحتوي على معلومات تحظى بقيمة كافية على صعيد الاهتمام العام بشكل يتفوق على مخاطر حدوث ضرر.
8.3 الامتثال لمسؤوليات شركة Meta تجاه حقوق الإنسان
وجد المجلس أن إزالة المحتوى في هذه الحالة تتفق مع مسؤوليات شركة Meta تجاه حقوق الإنسان. خلال النزاعات المسلحة، تتحمل الشركة أيضًا مسؤولية تجاه إنشاء نظام يتسم بالشفافية ويستند إلى المبادئ للإشراف على المحتوى عند وجود احتمالية معقولة بأن المحتوى قد يؤدي إلى التحريض على العنف. ويلاحظ المجلس المخاطر المتزايدة المتمثلة في احتمال أن يتسبب المحتوى بشكل مباشر في حدوث أضرار أثناء النزاع المسلح. ويرى المجلس أن Meta تفتقد حاليًا إلى إطار عمل يتسم بالشفافية ويستند إلى المبادئ للإشراف على المحتوى في المناطق المتأثرة بالنزاعات.
حرية التعبير (المادة 19 من العهد الدولي الخاص بالحقوق المدنية والسياسية)
توفر المادة 19 من العهد الدولي الخاص بالحقوق المدنية والسياسية حماية واسعة لحرية التعبير، بما في ذلك الحق في التماس المعلومات وتلقيها بشأن العنف المحتمل. ومع هذا، قد يتم تقييد هذا الحق بموجب بعض الشروط المحددة، وهو ما يفي بشروط الاختبار الثلاثي الذي يتألف من الشرعية (الوضوح) والهدف المشروع والضرورة والتناسب. تلتزم Meta باحترام حقوق الإنسان بموجب مبادئ الأمم المتحدة التوجيهية بشأن الأعمال التجارية وحقوق الإنسان والرجوع إلى السلطات مثل العهد الدولي الخاص بالحقوق المدنية والسياسية عند اتخاذ قرارات بشأن المحتوى، بما في ذلك في حالات النزاع المسلح. توفر خطة عمل الرباط أيضًا إرشادات مفيدة بهذا الشأن. وكما ذكر مقرر الأمم المتحدة الخاص المعني بحرية التعبير أنه على الرغم من أن "الشركات لا تتحمل التزامات الحكومات، لكن تأثيرها من النوع الذي يتطلب منها تقييم نفس النوع من الأسئلة المتعلقة بحماية حقوق مستخدميها في حرية التعبير" (A/74/486، الفقرة 41).
1. الشرعية (وضوح القواعد وسهولة الوصول إليها)
ينبغي أن تكون أي قيود تُفرض على حرية التعبير متاحة وواضحة بما يكفي لتوفير إرشادات للمستخدمين ومراجعي المحتوى حول المحتوى المسموح به وغير المسموح به على المنصة. قد يؤدي انعدام الوضوح أو الدقة إلى إنفاذ القواعد بشكل غير متسق أو عشوائي.
تحظر سياسة العنف والتحريض "التهديدات التي قد تؤدي إلى الموت" وتحديدًا، "العبارات التي تدل على وجود نية لارتكاب أعمال عنف شديد الخطورة." يرى المجلس أن السياسة التي تنطبق في هذه الحالة واضحة. مع هذا، في سياق تحديد هذه الحالة، يرى المجلس أن Meta لا توفر ما يكفي من المعلومات بشأن كيفية تنفيذ سياسة العنف والتحريض في حالات النزاع المسلح، واستثناءات السياسة المتاحة وكيفية استخدامها، أو أي عمليات إنفاذ متخصصة تتبعها الشركة لهذا النوع من الحالات.
2.الهدف المشروع
ينبغي أن تسعى القيود المفروضة على حرية التعبير إلى تحقيق هدف مشروع، وهو ما يتضمن احترام حقوق الآخرين وحماية الأمن القومي أو النظام العام. وُضع معيار مجتمع فيسبوك بشأن العنف والتحريض لمنع حدوث ضرر على أرض الواقع على نحو قد يرتبط بالمحتوى على فيسبوك. وكما خلُص المجلس في السابق في قراره الصادر بشأن الحالة "الجرائم المزعومة في ريا كوبو"، فإن القيود التي تستند إلى هذه السياسة تخدم الهدف المشروع المتمثل في حماية الحق في الحياة والحق في السلامة الجسدية.
3.الضرورة والتناسب
تقتضي الضرورة والتناسب أن تبرهن Meta على أن تقييدها للخطاب كان ضروريًا لمواجهة التهديد، وفي هذه الحالة تهديد حقوق الآخرين، وأنه لم يكن واسعًا وفضفاضًا للغاية (التعليق العام رقم 34، الفقرة 34). عند إجراء هذا التقييم، نظر المجلس أيضًا في العوامل الواردة في خطة عمل الرباط، بشأن ما قد يشكل تحريضًا على العنف (خطة عمل الرباط، المفوضية السامية للأمم المتحدة لحقوق الإنسان، A/HRC/22/17/ملحق.4، 2013)، مع مراعاة الفروق بين التزامات الدول في القانون الدولي ومسؤوليات الشركات تجاه حقوق الإنسان.
في هذه الحالة، يرى المجلس أن إزالة المحتوى من المنصة كانت بمثابة تقييد ضروري ومتناسب لحرية التعبير بموجب القانون الدولي لحقوق الإنسان. ومن خلال الاستعانة باختبار خطة عمل الرياض الذي يتألف من ستة أجزاء كأساس للتحليل، وجد أنه يدعم إزالة هذا المنشور.
إن السياق في إثيوبيا وحالة المتحدث ونيته؛ ومحتوى الخطاب ومعدلات وصوله؛ واحتمال حدوث ضرر على أرض الواقع تسهم جميعًا في تزايد خطر ارتكاب أعمال عنف على أرض الواقع. (1) السياق: نُشر المحتوى في سياق حرب أهلية جارية ومتصاعدة. وقد اتسم الصراع منذ بدايته بارتكاب انتهاكات للقانون الدولي لحقوق الإنسان والقانون الإنساني الدولي بواسطة طرفي النزاع. (2) المتحدث: المتحدث عبارة عن إحدى وزارات الحكومة الإقليمية المرتبطة بأحد طرفي النزاع والتي تحظى بوصول وتأثير كبيرين، بما في ذلك سلطة توجيه القوات المسلحة التيجرينية. (3) النية: في ضوء اللغة والسياق، توجد على الأقل دعوة واحدة صريحة لقتل الجنود الذين لا يستسلمون؛ ويمكن أن نستنتج بشكل معقول أن هناك نية أخرى لإحداث ضرر. (4) المحتوى: يمكن قراءة المنشور على أنه دعوة لاستهداف المقاتلين والقادة السياسيين، بغض النظر عن مشاركتهم أو عدم مشاركتهم في الأعمال العدائية. (5) مدى الانتشار: نُشر المحتوى على صفحة عامة تابعة لهيئة مرتبطة بأحد طرفي النزاع بها نحو 260 ألف متابع وظل المحتوى على المنصة لمدة يومين قبل أن يتم حذفه. (6) الاحتمالية والضرر الوشيك: نُشر المحتوى في وقت كانت قوات جبهة تحرير شعب تيجراي تتقدم نحو أجزاء أخرى من إثيوبيا بخلاف تيجراي، وكان رئيس الوزراء يعلن حالة الطوارئ على مستوى البلاد ويدعو المدنيين إلى حمل السلاح والمشاركة في القتال.
وفي حين وجد المجلس أن إزالة المحتوى في هذه الحالة كانت ضرورية ومتناسبة، فقد اتضح أيضًا للمجلس لدى مراجعة الحالة ضرورة توفير مزيد من الشفافية لتقييم ما إذا كانت إجراءات Meta متناسبة باستمرار طوال مدة اندلاع النزاع وعلى مستوى كل سياقات النزاعات المسلحة أم لا. تدرك الشركة منذ فترة كيفية استخدام منصاتها لنشر الخطاب الذي يحض على الكراهية وإشعال جذوة العنف العرقي. في حين اتخذت Meta خطوات إيجابية لتحسين نظام الإشراف على المحتوى في بعض النزاعات (على سبيل المثال، التكليف بإجراء تقييم مستقل للتحيز في الإشراف على المحتوى في النزاع الإسرائيلي الفلسطيني استجابة لتوصية المجلس)، فإنها لم تبذل الجهود الكافية لتقييم سياساتها وعملياتها الحالية ووضع إطار عمل يتسم بالشفافية ويستند إلى المبادئ للإشراف على المحتوى في مناطق النزاعات. عبّر بعض أعضاء المجلس عن أن إشراف Meta على المحتوى في مناطق النزاعات يجب أن يستند أيضًا إلى القانون الإنساني الدولي.
في إثيوبيا، وضحت Meta الخطوات التي اتخذتها لإزالة المحتوى الذي يحرض الآخرين على العنف. وتشير الشركة إلى عمليتين عامتين بالنسبة إلى البلدان المعرضة لخطر اندلاع نزاع عنيف أو التي تعاني منه، واللتان استخدمتا في إثيوبيا: نظام تصنيف "البلدان المعرضة للخطر" ومراكز العمليات والمنتجات والنزاهة. تم تصنيف إثيوبيا كبلد معرضة للخطر من الطبقة الأولى (أعلى خطورة) منذ أواخر 2020 وتم إنشاء مركز عمليات ومنتجات ونزاهة من المستوى الثالث من أجلها (أعلى مستوى) حينما نشر المحتوى. على الرغم من ذلك، لم تتم إزالة المحتوى إلا بعد مرور يومين على الرغم من وضوح السياسة التي انتهكها. يرى المجلس أن هذين اليومين، في سياق نزاع مسلح، يشكلان فترة زمنية طويلة في ضوء تقييم خطة عمل الرباط المذكور أعلاه. يوحي ذلك أيضًا بعدم كفاية نظام تصنيف البلدان المعرضة للخطر ومراكز العمليات والمنتجات والنزاهة كحل للتعامل مع الأحداث التي تفرض مخاطر كبيرة على حقوق الإنسان.
لا توفر Meta معلومات علنية كافية عن الأسلوب أو المعيار العام المستخدم لتقييم "البلدان المعرضة للخطر" واستثمارات الشركة في المنتجات نتيجة لذلك، في إثيوبيا وحالات النزاع الأخرى. دون هذه المعلومات، لا يمكن للمجلس ولا للعامة تقييم فعّالية وعدالة هذه العمليات، وما إذا كانت استثمارات الشركة في المنتجات عادلة أو ما إذا كان تنفيذها يتم بنفس السرعة والعناية على مستوى كل المناطق وحالات النزاع.
تعد مراكز العمليات والمنتجات والنزاهة حسب إفادة Meta "حلاً قصير الأجل" ويتم تشكيلها حسب الحاجة. يوحي ذلك للمجلس بأن الشركة قد تكون بحاجة إلى استثمار مزيد من الموارد لتوفير آليات داخلية مستدامة توفر الخبرة والقدرة الاستيعابية والتنسيق الضروري لمراجعة المحتوى والتعامل معه بفعّالية طوال فترة النزاع. يجب أن يستند هذا التقييم إلى السياسة والخبرة ذات الصلة بالبلد المعني.
قد يؤدي نهج Meta الحالي في الإشراف على المحتوى في المناطق التي تشهد نزاعات إلى وجود حالات من عدم الاتساق. هناك حاليًا ما يقرب من 27 نزاعًا مسلحًا على مستوى العالم، بحسب مجلس العلاقات الخارجية. في صراع واحد على الأقل (روسيا وأوكرانيا)، بدا لبعض المراقبين أن Meta قد اتخذت إجراءات سريعة ووضعت استثناءات للسياسة للسماح بالمحتوى الذي كانت تحظره في العادة بموجب سياسة العنف والتحريض، بينما أخذت وقتًا طويلاً للاستجابة في النزاعات الأخرى. أشار تعليق عام (PC-10433)، قدمه د. سامسون إيساياس، الأستاذ المشارك لدى كلية BI النرويجية لإدارة الأعمال إلى "الإجراءات السريعة" التي اتخذتها Meta للإشراف على المحتوى في سياق النزاع الروسي الأوكراني وسلط الضوء على "المعاملة التفضيلية بين هذا النزاع والنزاعات الدائرة في مناطق أخرى، لا سيّما في إثيوبيا وميانمار." ويوحي ذلك باتباع نهج غير متسق على نحو يمثل مشكلة بالنسبة إلى شركة تتمتع بمعدلات وصول مرتفعة وموارد ضخمة مثل Meta، لا سيّما في سياق النزاع المسلح.
9. قرار مجلس الإشراف
أيد مجلس الإشراف قرار Meta بإزالة المحتوى من لانتهاك معيار المجتمع بشأن العنف والتحريض.
10. البيان الاستشاري بشأن السياسة
الشفافية
1. تماشيًا مع توصية المجلس في حالة "تعليق حسابات الرئيس الأسبق ترامب" وكما كرر المجلس في حالة "فيديو صادم بشأن السودان"، ينبغي على Meta نشر معلومات عن بروتوكول سياسة الأزمات لديها. وسيعتبر المجلس أن توصيته هذه قد دخلت حيز التنفيذ عند توفر معلومات عن بروتوكول سياسة الأزمات في مركز الشفافية، في غضون ستة أشهر من نشر هذا القرار، كسياسة منفصلة في مركز الشفافية بالإضافة إلى العرض التقديمي لمنتدى السياسة العامة.
الإنفاذ
2. لتحسين إنفاذ سياسات المحتوى خلال فترات النزاع المسلح، يجب على Meta تقييم جدوى إنشاء آلية داخلية مستدامة توفر الخبرة والقدرة الاستيعابية والتنسيق اللازم لمراجعة المحتوى والتعامل معه بفعّالية أثناء نشوب النزاعات. سيعتبر المجلس هذه التوصية قد دخلت حيز التنفيذ عندما توفر Meta نظرة عامة للمجلس عن جدوى إنشاء آلية داخلية مستدامة.
* ملاحظة إجرائية:
يتم إعداد قرارات مجلس الإشراف من قِبل لجان مكونة من خمسة أعضاء ويتم اعتمادها من أغلبية أعضاء المجلس. ولا يلزم بالضرورة أن تُعبّر قرارات المجلس عن وجهات النظر الشخصية لجميع الأعضاء.
بالنسبة إلى القرار المتخذ بشأن هذه الحالة، تم إجراء بحث مستقل نيابة عن المجلس. معهد أبحاث مستقل يقع مقره في جامعة جوتنبرج ويعتمد على فريق مكون من أكثر من 50 عالم اجتماع من ست قارات، فضلاً عن أكثر من 3200 خبير محلي من جميع أنحاء العالم. وقد تلقى المجلس أيضًا مساعدة من شركة Duco Advisors، وهي شركة تركز على نقطة التقاء الجغرافيا السياسية والثقة والأمان والتكنولوجيا.
العودة إلى قرارات الحالة والآراء الاستشارية المتعلقة بالسياسة