قرار قضية متعددة
تقارير عن الحرب في غزة
راجع المجلس في هذين القرارين الموجزين منشورين يتناولان الحرب في غزة.
2 تم تضمين من الحالات في هذه الحزمة
FB-VXKB1TZ5
حالة بشأن أفراد خطرين ومنظمات خطرة على فيسبوك
IG-50OFM0LV
حالة بشأن أفراد خطرين ومنظمات خطرة على Instagram
تتم في القرارات الموجزة دراسة الحالات التي ألغت فيها Meta قرارها الأصلي بشأن أحد عناصر المحتوى بعد أن لفت المجلس انتباه الشركة إليه وتتضمن معلومات عن الأخطاء التي أقرت Meta بها. وتوافق عليها لجنة من أعضاء المجلس، وليس المجلس بكامله، ولا تتضمن تعليقات عامة ولا تُشكّل سابقة قانونية لدى المجلس. وتؤدي القرارات الموجزة إلى إحداث تغييرات مباشرة في قرارات Meta، مما يوفر الشفافية بشأن هذه التصحيحات، مع تحديد الجوانب التي يمكن أن تقوم Meta فيها بتحسين الإنفاذ.
الملخص
راجع المجلس في هذين القرارين الموجزين منشورين يتناولان الحرب في غزة. بعد أن لفت المجلس انتباه Meta إلى الطعنين، ألغت الشركة قرارتها الأصلية وأعادت المنشورين.
حول الحالات
في الحالة الأولى، نشر أحد مستخدمي Instagram خلال شهر فبراير 2024 مقطع فيديو قصير من تقرير للقناة الرابعة الإخبارية (المملكة المتحدة) عن قتل طفل فلسطيني. وقد صاحب الفيديو شرحًا توضيحيًا يشير صراحةً أنه لا يروّج لمنظمات خطرة أو أفراد خطرين وأن قصة الخبر تدور حول عائلة فلسطينية وعاملين في المجال الإنساني.
في الحالة الثانية، نشر أحد مستخدمي فيسبوك خلال شهر يناير 2024 مقطع فيديو من قناة الجزيرة يتناول الحرب في غزة. وقد تضمّن المقطع تقارير وتحليلات عن مفاوضات إطلاق سراح الرهائن بين إسرائيل وحماس.
في بادئ الأمر، أزالت Meta المنشورين من Instagram وفيسبوك، على الترتيب، بداعي انتهاك سياسة المنظمات الخطرة والأفراد الخطرين. وتزيل الشركة بموجب هذه السياسة "تمجيد" و"دعم" و"تمثيل" الكيانات المصنّفة، أو قادتها أو مؤسسيها أو أعضائها البارزين، بالإضافة إلى الإشارات غير الواضحة إليها.
ذكر المستخدمان فيما قدماه إلى المجلس من طعون أن مقاطع الفيديو عبارة عن تقارير من مؤسسات إعلامية ولا تشكّل انتهاكًا لمعايير مجتمع Meta. بعد أن لفت المجلس انتباه Meta إلى هاتين الحالتين، قررت الشركة أن المنشورين لم ينتهكا سياساتها وأعادت عنصري المحتوى إلى منصاتها.
سُلطة المجلس ونطاق عمله
يتمتع المجلس بسلطة مراجعة قرارات شركة Meta بعد تلقي طعون من المستخدمين الذين تمت إزالة المحتوى الخاص بهم (المادة 2، القسم 1 من اتفاقية المجلس؛ والمادة 3، القسم 1 من اللائحة الداخلية).
عندما تُقر Meta بأنها ارتكبت خطأً وتُلغي قرارها الصادر بشأن حالة قيد النظر نتيجة مراجعة المجلس، يجوز للمجلس اختيار هذه الحالة لإصدار قرار موجز (المادة 2، القسم 2.1.3 من اللائحة الداخلية). ويراجع المجلس القرار الأصلي لزيادة فهم عمليات الإشراف على المحتوى والحد من الأخطاء وتعزيز معدلات الإنصاف لمستخدمي فيسبوك وInstagram وThreads.
أهمية الحالات
تسلط هاتان الحالتان الضوء على الأخطاء التي تكتنف إنفاذ أحد استثناءات سياسة المنظمات الخطرة والأفراد الخطرين والذي يسمح بنشر المحتوى الذي "يقدم تقارير عن المنظمات الخطرة والأفراد الخطرين أو أنشطتهم أو يناقشها بحيادية أو يدينها"، لتأمين مساحة "للخطاب الاجتماعي والسياسي". ويقوض هذا النوع من الأخطاء الجهود الحقيقية لنشر تقارير عن النزاع الدائر في غزة والمناطق الأخرى المتأثرة بالنزاعات وتعزيز الوعي بها.
أصدر المجلس عدة توصيات لتحسين إنفاذ سياسة Meta بشأن المنظمات الخطرة والأفراد الخطرين. طلب المجلس من شركة Meta في رأي استشاري بشأن سياسات المحتوى "شرح الطريقة التي تتبعها لتقييم دقة المراجعة البشرية وأداء الأنظمة التلقائية في إنفاذ سياستها بشأن المنظمات الخطرة والأفراد الخطرين"، (التوصية رقم 6، الإشارة إلى الأفراد المُصنّفين كأفراد خطرين بكلمة "شهيد"). حث المجلس Meta أيضًا على "تقييم دقة المراجعين في تنفيذ استثناء نشر التقارير الإخبارية بموجب سياسة الأفراد الخطرين والمنظمات الخطرة لتحديد المشكلات النظامية التي تتسبب في أخطاء الإنفاذ"، وهي توصية ذكرت Meta أنها انتهت من تنفيذها دون أن تنشر معلومات تبرهن على ذلك (ذِكر طالبان في التقارير الإخبارية، التوصية رقم 5). علاوة على ذلك، أوصى المجلس Meta "بإضافة معايير وأمثلة توضيحية لسياسة Meta بشأن المنظمات الخطرة والأفراد الخطرين لتعزيز فهم الاستثناءات، وتحديدًا ما يتعلق بالمناقشات الحيادية والتقارير الصحفية"، وهي توصية برهنت Meta على تنفيذها من خلال المعلومات المنشورة (" مشاركة منشور الجزيرة،" التوصية رقم 1).
القرار
ألغى مجلس الإشراف قرارات Meta الأصلية بإزالة اثنين من عناصر المحتوى. ويُقر المجلس بتصحيح Meta لأخطائها الأولية بمجرد أن لفت المجلس انتباهها إلى هذه الحالات.
العودة إلى قرارات الحالة والآراء الاستشارية المتعلقة بالسياسة