مجلس الإشراف يلغي قرار Meta الأصلي المتعلق بحالة "ذِكر طالبان في التقارير الإخبارية (2022-005-FB-UA)
تم النشر بتاريخ 15 أَيْلُول 2022
ألغى مجلس الإشراف قرار Meta الأصلي بإزالة منشور على فيسبوك من صفحة منفذ إخباري، وكان المنشور يتحدث عن إعلان إيجابي بشأن حكم طالبان في أفغانستان ويدور حول تعليم النساء والفتيات. لم تكن إزالة المنشور تتسق مع معيار مجتمع فيسبوك بشأن الأفراد الخطرين والمنظمات الخطرة، والذي يسمح بنشر تقارير عن الجماعات الإرهابية، كما لم تكن تتسق مع مسؤوليات شركة Meta تجاه حقوق الإنسان. ورأى المجلس أن من الأفضل أن تحمي شركة Meta حرية الأشخاص في التعبير عندما يتعلق الأمر بنشر تقارير عن الأنظمة الإرهابية وأصدر توصيات بشأن السياسة للمساعدة على تحقيق هذه الغاية.
حول هذه الحالة
في شهر يناير 2022، نشرت صحيفة شهيرة تصدر باللغة الأردية ومقرها الهند منشورًا بصفحتها على فيسبوك. ورد في المنشور أن ذبيح الله مجاهد، عضو نظام طالبان في أفغانستان والمتحدث الرسمي باسمها، أعلن عن إعادة فتح المدارس والكليات المخصصة للنساء والفتيات في شهر مارس 2022. وتضمن المنشور رابطًا إلى مقالة بموقع الصحيفة على الويب وحصل على حوالي 300 مشاهدة.
وجدت Meta أن المنشور قد انتهك سياسة الأفراد الخطرين والمنظمات الخطرة التي تحظر "الإشادة" بالكيانات التي يتقرر أنها "تشارك في أضرار جسيمة على أرض الواقع،" بما في ذلك المنظمات الإرهابية. أزالت Meta المنشور، وأعطت "إنذارات" لمسؤول الصفحة الذي نشر المحتوى وقيدت وصوله إلى ميزات معينة على فيسبوك (مثل إجراء بث مباشر على فيسبوك).
تقدم المستخدم بطعن وبعد أن قرر مراجع آخر تقييم المحتوى على أنه مخالف، تم وضع المحتوى في قائمة انتظار نظام تجاوز النتائج الإيجابية الخاطئة عالية التأثير (HIPO). نظام تجاوز النتائج الإيجابية الخاطئة عالية التأثير هو نظام تستخدمه Meta للتعرف على الحالات التي اتخذت فيها إجراءات غير صائبة، على سبيل المثال، من خلال إزالة المحتوى عن طريق الخطأ. ومع ذلك، وفي ظل وجود أقل من 50 مراجعًا ناطقًا باللغة الأردية في نظام تجاوز النتائج الإيجابية الخاطئة عالية التأثير في الوقت الحالي، وعدم اعتبار المنشور من المنشورات ذات الأولوية العالية، لم تتم مراجعته مطلقًا ضمن نظام تجاوز النتائج الإيجابية الخاطئة.
بعد أن حدد المجلس هذه الحالة، قررت Meta أنه لم يكن من المفترض أن تتم إزالة هذا المنشور لأن قواعدها تسمح "بنشر تقارير" عن المنظمات الإرهابية. وأعادت الشركة المحتوى، وألغت الإنذار، وأزالت القيود المفروضة على حساب المستخدم.
النتائج الرئيسية
يرى مجلس الإشراف أن إزالة هذا المنشور لا تتفق مع معيار مجتمع فيسبوك بشأن الأفراد الخطرين والمنظمات الخطرة، أو قيم Meta، أو مسؤوليات الشركة تجاه حقوق الإنسان.
يحظر معيار المجتمع بشأن الأفراد الخطرين والمنظمات الخطرة "الإشادة" بكيانات معينة، بما في ذلك المنظمات الإرهابية. وقد تم تعريف "الإشادة" تعريفًا عامًا في كل من معيار المجتمع والتوجيهات الداخلية المخصصة للمشرفين. ونتيجة لذلك، يدرك المجلس الأسباب التي أدت إلى تفسير اثنين من المراجعين للمحتوى على أنه إشادة. ومع ذلك، يسمح معيار المجتمع بالمحتوى الذي "يقدم تقارير" عن المنظمات الخطرة. ويرى المجلس أن الاستثناء المذكور ينطبق في هذه الحالة.
يرى المجلس أيضًا أن إزالة المنشور لا تتفق مع مسؤوليات شركة Meta تجاه حقوق الإنسان؛ فهي تضع قيدًا غير مبرر على حرية التعبير، والذي يضم الحق في تداول المعلومات وتلقيها، بما في ذلك المعلومات التي تتناول الجماعات الإرهابية. ويحظى ذلك بأهمية خاصة في حالات النزاعات والأزمات، بما في ذلك عندما تسيطر جماعات إرهابية على أحد البلدان.
يشعر المجلس بالقلق تجاه تداخل أنظمة Meta وسياساتها مع حرية التعبير عندما يتعلق الأمر بنشر تقارير عن الأنظمة الإرهابية. تفتقد معايير المجتمع التي تعتنقها الشركة وتوجيهاتها الداخلية للمشرفين إلى الوضوح فيما يتعلق بكيفية تطبيق حظر الإشادة واستثناء التقارير، أو العلاقة بينهما. وتوحي حقيقة توصُل اثنين من المراجعين إلى أن المحتوى مخالف بأن هذه النقاط لم تُفهم بشكل جيد. ويشعر المجلس بالقلق تجاه كون الإجراء الافتراضي لشركة Meta يتمثل في إزالة المحتوى بموجب سياسة الأفراد الخطرين والمنظمات الخطرة إذا لم يوضح المستخدم أن غرضه هو "نشر تقارير" بشأن الموضوع. يشعر المجلس بالقلق أيضًا من عدم مراجعة المحتوى ضمن نظام تجاوز النتائج الإيجابية الخاطئة عالية التأثير (HIPO).
قد تشير هذه الحالة إلى مشكلة أكبر. فقد نظر المجلس في عدد من الشكاوى المقدمة بشأن أخطاء إنفاذ سياسة الأفراد الخطرين والمنظمات الخطرة، لا سيما في اللغات الأخرى غير اللغة الإنجليزية. وهو ما يثير مخاوف جدية، لا سيما للصحفيين والمدافعين عن حقوق الإنسان. وعلاوة على ذلك، فإن عقوبات انتهاك هذه السياسة قاسية وغير واضحة.
قرار مجلس الإشراف
ألغى مجلس الإشراف قرار شركة Meta الأصلي بإزالة المنشور.
وأوصى المجلس Meta بما يلي:
- التحقيق في أسباب عدم ترجمة تغييرات سياسة الأفراد الخطرين والمنظمات الخطرة خلال الإطار الزمني المستهدف، ومنع تكرار مثل هذه التأخيرات.
- جعل التفسير المتاح للعامة بشأن نظام "الإنذارات" أكثر شمولاً وأسهل وصولاً.
- جعل تعريف "الإشادة" في الأسئلة المعروفة أكثر تحديدًا (التوجيهات الداخلية للمشرفين) بإزالة مثال المحتوى الذي "يسعى لأن يفكر الآخرون بشكل أكثر إيجابية بشأن" المنظمات الخطرة.
- مراجعة معايير التنفيذ (التوجيهات الداخلية للمشرفين) لتوضيح أن استثناء نشر التقارير في سياسة الأفراد الخطرين والمنظمات الخطرة يسمح بالتصريحات الإيجابية. يجب أن توضح الأسئلة المعروفة أهمية حماية التقارير الإخبارية في حالات النزاع أو الأزمات.
- تقييم دقة المراجعين في إنفاذ استثناء نشر التقارير فيما يتعلق بسياسة الأفراد الخطرين والمنظمات الخطرة لتحديد أسباب الأخطاء.
- إجراء مراجعة لنظام تجاوز النتائج الإيجابية الخاطئة عالية التأثير لفحص ما إذا كان بإمكانه ترتيب أولوية الأخطاء المحتملة في إنفاذ استثناء سياسة الأفراد الخطرين والمنظمات الخطرة بشكل أكثر فعالية.
- زيادة القدرة الاستيعابية المخصصة لمراجعة نظام تجاوز النتائج الإيجابية الخاطئة عالية التأثير على مستوى كل اللغات.
لمزيد من المعلومات:
للاطلاع على القرار الكامل بشأن الحالة، انقر هنا.
للاطلاع على ملخص تعليقات العامة لهذه الحالة، يرجى النقر على المرفق الموجود أدناه.