قرار قضية متعددة
رسوم كاريكاتورية عن الاحتجاجات الجامعية
في هذين القرارين الموجزين، راجع المجلس منشورين بهما رسوم كاريكاتورية عن الاحتجاجات الجامعية.
2 تم تضمين من الحالات في هذه الحزمة
FB-TO38JZ4O
حالة بشأن أفراد خطرين ومنظمات خطرة على فيسبوك
FB-0F4BU4NY
حالة بشأن أفراد خطرين ومنظمات خطرة على فيسبوك
تتم في القرارات الموجزة دراسة الحالات التي ألغت فيها Meta قرارها الأصلي بشأن أحد عناصر المحتوى بعد أن لفت المجلس انتباه الشركة إليه وتتضمن معلومات عن الأخطاء التي أقرت Meta بها. وتوافق عليها لجنة من أعضاء المجلس، وليس المجلس بكامله، ولا تتضمن تعليقات عامة ولا تُشكّل سابقة قانونية لدى المجلس. وتؤدي القرارات الموجزة إلى إحداث تغييرات مباشرة في قرارات Meta، مما يوفر الشفافية بشأن هذه التصحيحات، مع تحديد الجوانب التي يمكن أن تقوم Meta فيها بتحسين الإنفاذ.
ملخص
في هذين القرارين الموجزين، راجع المجلس منشورين بهما رسوم كاريكاتورية عن الاحتجاجات الجامعية. وأزالت Meta كلا المنشورين في المراجعة المبدئية. ومع ذلك، وبعد أن لفت المجلس انتباه Meta لإجراء مراجعة إضافية لهاتين الحالتين، ألغت الشركة قرارتها الأصلية وأعادت المنشورين.
حول الحالات
في الحالة الأولى، في مايو 2024، نشر أحد مستخدمي فيسبوك رسمًا كاريكاتوريًا يصور شخصين. الشخص الأول يرتدي عصابة رأس مكتوب عليها "حماس" ويحمل سلاحًا. ويقول إنهما سيقتلان الشعب اليهودي حتى "تُمحى إسرائيل من الخريطة". بينما يرتدي الشخص الثاني قميصًا مكتوبًا عليه كلمة "جامعة". ويحمل كتابًا ويقول: "من الواضح أنهم يريدون العيش في سلام". أما في الحالة الثانية، في أبريل 2024، نشر أحد مستخدمي فيسبوك رسمًا كاريكاتوريًا يعرض أفراد عائلة يتناولون الطعام معًا. ويشبه الابن أدولف هتلر ويرتدي قميصًا مكتوب عليه "أنا [أحب] حماس". ويُعرب الأب عن قلقه بشأن التغيير الذي طرأ على ابنه بسبب الجامعة. ونشر كلا المستخدمين المحتوى في سياق الاحتجاجات المتعلقة بالصراع القائم بين إسرائيل وغزة، والمندلعة في الجامعات في جميع أنحاء الولايات المتحدة.
أزالت Meta كلا المنشورين من فيسبوك في بادئ الأمر بموجب سياستها بشأن المنظمات الخطرة والأفراد الخطرون (DOI). وبموجب هذه السياسة، تزيل الشركة "تمجيد" و"دعم" و"تمثيل" الكيانات المصنّفة، أو قادتها أو مؤسسيها أو أعضائها البارزين، بالإضافة إلى الإشارات غير الواضحة إليها.
ذكر المستخدمان فيما قدماه إلى المجلس من طعون أنهما نشرا رسمًا كاريكاتوريًا سياسيًا لا يشكّل انتهاكًا لمعايير مجتمع Meta. وبعد أن لفت المجلس انتباه Meta إلى هاتين الحالتين، قررت الشركة أن المنشورين لم ينتهكا سياساتها وأعادت عنصري المحتوى إلى منصتها.
سُلطة المجلس ونطاق عمله
يتمتع المجلس بسلطة مراجعة قرار شركة Meta بعد تلقي طعن من المستخدم الذي تعرض المحتوى الخاص به إلى الإزالة (المادة 2، القسم 1 من اتفاقية المجلس؛ والمادة 3، القسم 1 من اللائحة الداخلية).
عندما تُقر Meta بأنها ارتكبت خطأً وتُلغي قرارها الصادر بشأن حالة قيد النظر نتيجة مراجعة المجلس، يجوز للمجلس اختيار هذه الحالة لإصدار قرار موجز (المادة 2، القسم 2.1.3 من اللائحة الداخلية). ويراجع المجلس القرار الأصلي لزيادة فهم عمليات الإشراف على المحتوى والحد من الأخطاء وتعزيز معدلات الإنصاف لمستخدمي فيسبوك وInstagram وThreads.
أهمية الحالات
تسلط هاتان الحالتان الضوء على الأخطاء التي تكتنف إنفاذ استثناءات سياسة Meta بشأن "المنظمات الخطرة والأفراد الخطرون"، والذي يسمح بنشر المحتوى الذي "يقدم تقارير عن المنظمات الخطرة والأفراد الخطرين أو أنشطتهم أو يناقشها بحيادية أو يدينها"، لتأمين مساحة "للخطاب الاجتماعي والسياسي".
لقد أصدر المجلس عدة توصيات لزيادة مستوى الشفافية حول إنفاذ سياسة Meta بشأن "المنظمات الخطرة والأفراد الخطرون" واستثناءاتها. كما أصدر المجلس توصيات لمعالجة تحديات الإنفاذ المرتبطة بهذه السياسة. ويشمل ذلك توصيات من أجل "تقييم دقة المراجعين في إنفاذ استثناء نشر التقارير بموجب سياسة "المنظمات الخطرة والأفراد الخطرون" لتحديد المشكلات النظامية التي تتسبب في أخطاء الإنفاذ". وعلى الرغم من إعلان Meta عن إنفاذ هذه التوصية، إلا أنها لم تنشر معلومات تثبت ذلك (ذِكر طالبان في التقارير الإخبارية، التوصية رقم 5).
أوصى المجلس أيضًا Meta "بإضافة معايير وأمثلة توضيحية لسياسة Meta بشأن "المنظمات الخطرة والأفراد الخطرون" لتعزيز فهم الاستثناءات، وتحديدًا ما يتعلق بالمناقشات الحيادية والتقارير الصحفية"، وهي توصية أثبتت Meta إنفاذها من خلال المعلومات المنشورة ("مشاركة منشور الجزيرة،" التوصية رقم 1). وعلاوة على ذلك، طلب المجلس من شركة Meta في رأي استشاري بشأن سياسات المحتوى "شرح الطريقة التي تتبعها لتقييم دقة المراجعة البشرية وأداء الأنظمة التلقائية في إنفاذ سياستها بشأن "المنظمات الخطرة والأفراد الخطرون""، (التوصية رقم 6، الإشارة إلى الأفراد المُصنّفين كأفراد خطرين بكلمة "شهيد"). أعادت Meta صياغة هذه التوصية. وشاركت الشركة معلومات حول المراجعات التي تجريها لتقييم دقة قراراتها المتعلقة بالإشراف على المحتوى وكيف يحدد ذلك مجالات التحسين. ومع ذلك، لم توضح Meta الطرق المستخدمة لديها لإجراء هذه التقييمات، ولم تلتزم الشركة بمشاركة نتائج هذه التقييمات.
بالإضافة إلى ذلك، أصدر المجلس توصية بشأن إجراءات إنفاذ Meta تجاه المحتوى الساخر. ويشمل ذلك توصية لشركة Meta من أجل "التأكد من توفير الإجراءات الكافية لتقييم المحتوى الساخر والسياق المرتبط به بشكل صحيح. ويتضمن ذلك تزويد المشرفين على المحتوى بما يلي: (1) الوصول إلى فِرق العمليات المحلية التابعة لفيسبوك لجمع المعلومات الثقافية والأساسية وثيقة الصلة بالحالة؛ و(2) منحهم الوقت الكافي لاستشارة فِرق العمليات المحلية التابعة لفيسبوك وإجراء التقييم. ويجب أن تتأكد [Meta] من أن سياساتها بشأن المشرفين على المحتوى تحفز على إجراء مزيد من التحقيق أو التصعيد عندما يكون المشرف على المحتوى غير متأكد مما إذا كان الرسم الكاريكاتوري ساخرًا أم لا"، وهي توصية أبلغت Meta عن إنفاذها، ولكنها لم تنشر معلومات لإثبات الإنفاذ (قرار ميم زِرَّي الاختيار، التوصية رقم 3). أوصى مجلس الإدارة أيضًا بأن تقوم Meta بتضمين الاستثناء الساخر للغة العامة لـ معيار المجتمع للخطاب الذي يحض على الكراهية، وهي توصية أثبتت Meta إنفاذها من خلال المعلومات المنشورة، (قرار ميم زِرَّي الاختيار، التوصية رقم 2).
القرار
ألغى مجلس الإشراف قرارات Meta الأصلية بإزالة اثنين من عناصر المحتوى. ويُقر المجلس بتصحيح Meta لأخطائها الأولية بمجرد أن لفت المجلس انتباهها إلى هذه الحالات.
العودة إلى قرارات الحالة والآراء الاستشارية المتعلقة بالسياسة