أسقط
فيضانات ليبيا
تقدم مستخدم بطعن على قرار Meta بإزالة منشور على فيسبوك يناقش الفيضانات الأخيرة في ليبيا. تسلِّط هذه الحالة الضوء على الإفراط في إنفاذ سياسة الشركة بشأن المنظمات الخطرة والأفراد الخطرين.
هذا قرار موجز. تتم في القرارات الموجزة دراسة الحالات التي ألغت فيها Meta قرارها الأصلي بشأن أحد عناصر المحتوى بعد أن لفت المجلس انتباه الشركة إليه. تتضمن هذه القرارات معلومات عن الأخطاء التي أقرت بها Meta وتوضح للعامة التأثير الذي تحدثه أعمال المجلس. وتوافق عليها لجنة من أعضاء المجلس، وليس المجلس بكامله. ولا تتضمن معالجة للتعليقات العامة ولا تُشكّل سابقة قانونية لدى المجلس. توفر القرارات الموجزة الشفافية بشأن تصحيحات Meta وتسلّط الضوء على الجوانب التي يمكن أن تحسنها الشركة فيما يتعلق بإنفاذ سياساتها.
ملخص الحالة
تقدم مستخدم بطعن على قرار Meta بإزالة منشور على فيسبوك يناقش الفيضانات الأخيرة في ليبيا. في سبتمبر 2023، ضربت فيضانات مدمرة شمال شرق ليبيا نتيجة العاصفة دانيال والتي نتج عنها انهيار سدين. وقد أزيل مقطع فيديو يدعم ضحايا الفيضانات، وتحديدًا في مدينة درنة، لانتهاك سياسة Meta بشأن المنظمات الخطرة والأفراد الخطرين. تسلط هذه الحالة الضوء على فرط إنفاذ سياسة الشركة بشأن المنظمات الخطرة والأفراد الخطرين، والتي تؤثر بالسلب في حرية المستخدمين في التعبير عن التضامن والتعاطف في المواقف الصعبة. بعد أن لفتَ المجلس انتباه Meta إلى الطعن، ألغت الشركة قرارها السابق وأعادت المنشور.
وصف الحالة ومعلومات أساسية عنها
في سبتمبر 2023، نشر أحد مستخدمي فيسبوك مقطع فيديو يتضمن صورتين دون شرح توضيحي. تضمنت صورة الخلفية شخصين بزي وشارات عسكرية. كُتب على إحدى الشارتين باللغة العربية "اللواء 444 - قتال." وكانت هذه الصورة مغطاة بصورة أخرى يظهر فيها شخصان يسحبان شخصًا ثالثًا من الماء. وكان الشخصان على الجانبين يحملان على صدورهما كلمتي "الغرب" و"الجنوب" باللغة العربية، بينما كان الشخص في المنتصف يحمل كلمة "الشرق."
في أغسطس 2023، اندلعت اشتباكات مسلحة في طرابلس بين اللواء 444 قتال وقوة الردع الخاصة. وهما من الميلشيات المتنافسة على السلطة منذ الإطاحة بمعمر القذافي عام 2011. في الطعن الذي تقدم به المستخدم إلى المجلس، ذَكر أنه نشر الفيديو ليوضح أن ليبيا "شعب واحد" و"جيش واحد" يدعم مدينة درنة الواقعة شمال شرق ليبيا بعد الفيضانات التي نتجت عن انهيار السد في أعقاب العاصفة دانيال التي ضربت البلاد في سبتمبر 2023.
أزالت Meta المنشور من فيسبوك في بادئ الأمر، بداعي انتهاك سياسة المنظمات الخطرة والأفراد الخطرين.
بعد أن لفت المجلس انتباه Meta إلى هذه الحالة، قررت الشركة أن الإزالة كانت غير صحيحة وأعادت المحتوى إلى فيسبوك. أبلغت Meta المجلس أن المحتوى لم يتضمن أي إشارات إلى منظمات أو أفراد مصنفين وبالتالي فهو لم ينتهك سياسات Meta.
سُلطة المجلس ونطاق عمله
يتمتع المجلس بسلطة مراجعة قرار شركة Meta بعد تلقي طعن من المستخدم الذي تعرض المحتوى الخاص به إلى الإزالة (المادة 2، القسم 1 من اتفاقية المجلس؛ والمادة 3، القسم 1 من اللائحة الداخلية).
عندما تُقر Meta بأنها ارتكبت خطأً وتُلغي قرارها الصادر بشأن حالة قيد النظر نتيجة مراجعة المجلس، يجوز للمجلس اختيار هذه الحالة لإصدار قرار موجز (المادة 2، القسم 2.1.3 من اللائحة الداخلية). ويراجع المجلس القرار الأصلي لزيادة فهم عمليات الإشراف على المحتوى، والحد من الأخطاء وتعزيز معدلات الإنصاف لمستخدمي فيسبوك وInstagram.
أهمية الحالة
تسلط هذه الحالة الضوء على فرط إنفاذ سياسة Meta بشأن المنظمات الخطرة والأفراد الخطرين، بما في ذلك من خلال الأنظمة التلقائية، وهو ما قد يؤثر في حرية التعبير لدى المستخدمين متمثلة في مشاركة تعليقات بشأن الأحداث الحالية على منصات Meta.
في حالة عزلة أوجلان، أوصى المجلس Meta "بتقييم عمليات الإشراف التلقائية التي تستعين بها في إنفاذ سياسة المنظمات الخطرة والأفراد الخطرين" (التوصية رقم 2). أفادت Meta أنها لن تتخذ أي إجراءات أخرى بشأن هذه التوصية لأن "إرشادات السياسة في هذه الحالة لا تسهم بشكل مباشر في أداء الإنفاذ التلقائي."
فيما يتعلق بالأتمتة، حث المجلس Meta على "تنفيذ تدقيق داخلي لإجراء تحليل مستمر لعينة مُعبرة إحصائيًا من قرارات إزالة المحتوى التلقائية لتصحيح أخطاء الإنفاذ والتعلم منها" (أعراض سرطان الثدي والعُري، التوصية رقم 5). أبلغت Meta عن تنفيذ هذه التوصية لكنها لم تنشر معلومات لتبرهن على تنفيذها بالكامل. وقد أفادت Meta أنها اعتبارًا من الربع الرابع لعام 2022 "أكملت نشر رسائل جديدة أكثر تحديدًا على مستوى العالم تخبر من خلالها الأشخاص بما إذا كانت المراجعة الآلية أم البشرية هي التي أدت إلى إزالة المحتوى الخاص بهم من فيسبوك" لكنها لم تقدم معلومات تثبت ذلك. في هذا القرار ذاته، أوصى المجلس Meta أيضًا "توسيع نطاق تقارير الشفافية للكشف عن البيانات المتعلقة بعدد قرارات الإزالة التلقائية لكل معيار من معايير المجتمع، ونسبة القرارات التي تم تصحيحها لاحقًا بعد المراجعة البشرية،" (أعراض سرطان الثدي والعُري، التوصية رقم 6). واعتبارًا من الربع الثالث لعام 2023، أفادت Meta أنها كانت تعمل على إنشاء منهجية احتساب موحدة لأدوات القياس تلك. في حالة مخاوف البنجابيين تجاه منظمة راشتريا سوايامسيفاك سانغ (RSS) في الهند، حث المجلس Meta على "تحسين تقارير الشفافية التي تصدرها لزيادة المعلومات المعلنة بشأن معدلات الأخطاء من خلال إتاحة إمكانية الاطلاع على تلك المعلومات حسب البلد واللغة لكل معيار من معايير المجتمع،" (التوصية رقم 3). واعتبارًا من الربع الثالث لعام 2023، أفادت Meta أنها كانت تعمل على تحديد أدوات قياس الدقة لديها، بالإضافة غلى العمل على تنفيذ التوصية رقم 6 في حالة أعراض سرطان الثدي والعُري.
يكرر المجلس أن التنفيذ الكامل لتوصياته سيساعد على تقليل أخطاء الإنفاذ بموجب سياسة المنظمات الخطرة والأفراد الخطرين، مما يقلل عدد المستخدمين الذين انتهكت حرية التعبير لديهم من خلال إزالة المحتوى عن طريق الخطأ.
القرار
ألغى المجلس قرار شركة Meta الأصلي بإزالة المحتوى. ويُقر المجلس بأن الشركة قد صحّحت خطأها الأولي بمجرد أن لفت المجلس انتباهها إلى الحالة. يشدد المجلس على أن تبَني هذه التوصيات بالكامل، بالإضافة إلى المعلومات المنشورة التي توضح أنه قد تم تنفيذها بنجاح، قد يقلل من عدد أخطاء الإنفاذ بموجب سياسة المنظمات الخطرة والأفراد الخطرين على منصات Meta.
العودة إلى قرارات الحالة والآراء الاستشارية المتعلقة بالسياسة