أسقط
كرتون انقلاب النيجر
تقدم مستخدم بطعن على قرار Meta بإزالة منشور على فيسبوك بشأن الانقلاب العسكري في النيجر.
هذا قرار موجز. تتم في القرارات الموجزة دراسة الحالات التي ألغت فيها Meta قرارها الأصلي بشأن أحد عناصر المحتوى بعد أن لفت المجلس انتباه الشركة إليه. وتتضمن هذه القرارات معلومات حول أخطاء Meta التي تم إقرارها. وتوافق عليها لجنة من أعضاء المجلس، وليس المجلس بكامله. ولا تتضمن معالجة للتعليقات العامة ولا تُشكّل سابقة قانونية لدى المجلس. توفر القرارات الموجزة الشفافية بشأن تصحيحات Meta وتسلّط الضوء على الجوانب التي يمكن أن تحسنها الشركة فيما يتعلق بإنفاذ سياساتها.
ملخص الحالة
تقدم مستخدم بطعن على قرار Meta بإزالة منشور على فيسبوك بشأن الانقلاب العسكري في النيجر. تسلط هذه الحالة الضوء على أخطاء الإشراف على المحتوى لدى Meta، بما في ذلك أنظمتها المؤتمتة لاكتشاف الخطاب الذي يحض على الكراهية. بعد أن لفت المجلس انتباه Meta إلى الطعن، ألغت الشركة قرارها الأصلي وأعادت المنشور.
وصف الحالة ومعلومات أساسية عنها
في يوليو 2023، نشر أحد مستخدمي فيسبوك في فرنسا صورة كرتونية يظهر بها حذاءً عسكريًا كُتب عليه "النيجر" يركل شخصًا يرتدي قبعة حمراء وفستانًا أحمر. ويوجد على الفستان المخطط الجغرافي لأفريقيا. في وقت سابق من الشهر ذاته، حدث انقلاب عسكري في النيجر حين أطاح الجنرال عبد الرحمن تشياني بالرئيس محمد بازوم، معلنًا نفسه قائدًا للبلاد بعد أن استعان بالحرس الرئاسي الذي كان يترأسه حينها.
أزالت Meta المنشور من فيسبوك في البداية، بموجب سياسة الخطاب الذي يحض على الكراهية، والذي تحظر بموجبه الشركة المحتوى الذي يتضمن هجمات ضد الأشخاص على أساس سمة تتمتع بحقوق حماية، بما في ذلك بعض حالات تصوير العنف ضد هذه المجموعات.
بعد أن لفت المجلس انتباه Meta إلى هذه الحالة، قررت الشركة أن المحتوى لا ينتهك سياسة الخطاب الذي يحض على الكراهية وأن إزالته قد تمت عن طريق الخطأ. ثم أعادت الشركة المحتوى إلى فيسبوك.
سُلطة المجلس ونطاق عمله
يتمتع المجلس بسلطة مراجعة قرار شركة Meta بعد تلقي طعن من الشخص الذي تعرض المحتوى الخاص به إلى الإزالة (المادة 2، القسم 1 من اتفاقية المجلس؛ المادة 3، القسم 1 من اللائحة الداخلية).
عندما تُقر Meta بأنها ارتكبت خطأً وتُلغي قرارها الصادر بشأن حالة قيد النظر نتيجة مراجعة المجلس، يجوز للمجلس اختيار هذه الحالة لإصدار قرار موجز (المادة 2، القسم 2.1.3 من اللائحة الداخلية). ويراجع المجلس القرار الأصلي لزيادة فهم عمليات الإشراف على المحتوى المتبعة، وتقليل الأخطاء ورفع مستوى الإنصاف لمستخدمي فيسبوك وInstagram.
أهمية الحالة
تسلط الحالة الضوء على عدم الدقة التي تكتنف أنظمة الإشراف لدى Meta التي تكتشف الخطاب الذي يحض على الكراهية. أصدر المجلس توصيات بشأن تحسين الأتمتة والشفافية، بما في ذلك حث شركة Meta على "تنفيذ تدقيق داخلي لإجراء تحليل مستمر لعيّنة مُعبرة إحصائيًا من قرارات إزالة المحتوى التلقائية بهدف تصحيح أخطاء الإنفاذ والتعلم منها"، ( قرار أعراض سرطان الثدي والعُري، التوصية رقم 5). أبلغت Meta المجلس أنها تنفّذ هذه التوصية لكنها لم تنشر معلومات بعد لتبرهن على ذلك.
القرار
ألغى المجلس قرار شركة Meta الأصلي بإزالة المحتوى. ويُقر المجلس بأن الشركة قد صحّحت خطأها الأولي بمجرد أن لفت المجلس انتباهها إلى الحالة. يحث المجلس Meta أيضًا على إسراع تنفيذ التوصيات التي لا تزال مفتوحة لتقليل هذه الأخطاء.
العودة إلى قرارات الحالة والآراء الاستشارية المتعلقة بالسياسة