أسقط
عنصرية كوكب القرود
تقدّم مستخدم بطعن على قرار Meta بإبقاء منشور على فيسبوك يشبّه مجموعة من الأشخاص السود المشاركين في أعمال شغب في فرنسا "بكوكب القرود".
هذا قرار موجز. تفحص القرارات الموجزة الحالات التي ألغت فيها Meta قرارها الأصلي بشأن المحتوى بعد أن لفت المجلس انتباه الشركة إليها. وتتضمن هذه القرارات معلومات حول أخطاء Meta التي تم إقرارها. وتوافق عليها لجنة من أعضاء المجلس، وليس المجلس بكامله. ولا تنظر اللجنة في التعليقات العامة، ولا تُشكّل هذه القرارات سابقة قانونية لدى المجلس. توفر القرارات الموجزة الشفافية بشأن تصحيحات Meta وتسلّط الضوء على الجوانب التي يمكن أن تحسنها الشركة فيما يتعلق بإنفاذ سياساتها.
ملخص الحالة
تقدّم مستخدم بطعن على قرار Meta بإبقاء منشور على فيسبوك يشبّه مجموعة من الأشخاص السود المشاركين في أعمال شغب في فرنسا "بكوكب القرود". بعد أن لفت المجلس انتباه Meta إلى الطعن، ألغت الشركة قرارها الأصلي وأزالت المنشور.
وصف الحالة ومعلومات أساسية عنها
في يناير 2023، نشر مستخدم على فيسبوك مقطع فيديو يبدو أنه قد تم تصويره أثناء قيادة السيارة ليلاً. في مقطع الفيديو، تظهر السيارة وهي تسير بين الأحياء إلى أن تظهر مجموعة من الرجال السود ثم تتم مشاهدتهم وهم يطاردون السيارة حتى نهاية التصوير. ينص الشرح التوضيحي باللغة الإنجليزية على أن "فرنسا سقطت مثل كوكب القرود التافهة التي تثير أعمال شغب في الشوارع وتركض متوحشة وهمجية" وكتب عن كيفية منح "أولئك" الذين يصلون إلى "شواطئنا" سكنًا مقابل ما يعتقد المستخدم أنه تكلفة كبيرة. حصل المنشور على أقل من 500 مشاهدة. وقد أبلغ أحد مستخدمي فيسبوك عن المحتوى.
بموجب سياسة Meta بشأن الخطاب الذي يحض على الكراهية، تزيل الشركة المحتوى الذي يجرد الأشخاص من إنسانيتهم ممن ينتمون إلى فئات لديها سمات تتمتع بحقوق حماية من خلال مقارنتهم "بالحشرات" أو "الحيوانات" بوجه عام أو بأنواع معينة من الحيوانات تعتبر في الثقافة السائدة حيوانات دونية فكريًا أو جسمانيًا (بما في ذلك على سبيل المثال لا الحصر: أصحاب البشرة السمراء والقرود أو الكائنات الشبيهة بها؛ اليهود والفئران؛ المسلمون والخنازير؛ المكسيكيون والديدان)."
تركت Meta المحتوى على فيسبوك في بادئ الأمر. بعد أن لفَت المجلس انتباه Meta إلى الحالة، قررت الشركة أن المحتوى انتهك معيار مجتمعها بشأن الخطاب الذي يحض على الكراهية، وأن قرارها الأصلي بترك المحتوى لم يكن صائبًا. أوضحت Meta للمجلس أن الشرح التوضيحي لمقطع الفيديو انتهك سياستها بشأن الخطاب الذي يحض على الكراهية من خلال مقارنة الرجال بالقرود وكان من الواجب إزالته. ثم أزالت الشركة المحتوى من فيسبوك.
سُلطة المجلس ونطاق عمله
يتمتع المجلس بسلطة مراجعة قرار شركة Meta بعد تلقي طعن من المستخدم الذي أبلغ عن المحتوى الذي تم تركه (المادة 2، القسم 1 من اتفاقية المجلس؛ المادة 3، القسم 1 من اللائحة الداخلية).
عندما تُقر Meta بأنها ارتكبت خطأً وتُلغي قرارها الصادر بشأن حالة قيد النظر نتيجة مراجعة المجلس، يجوز للمجلس اختيار هذه الحالة لإصدار قرار موجز (المادة 2، القسم 2.1.3 من اللائحة الداخلية). ويراجع المجلس القرار الأصلي لزيادة فهم عملية الإشراف على المحتوى، بهدف تقليل الأخطاء ورفع مستوى الإنصاف لصالح الأشخاص الذين يستخدمون فيسبوك وInstagram.
أهمية الحالة
تسلط الحالة الضوء على الصعوبات التي تكتنف إنفاذ Meta لسياساتها بشأن المحتوى بشكل متسق. لدى Meta بند محدد في سياسة الخطاب الذي يحض على الكراهية يحظر مقارنات الأشخاص السود بالقرود، ومع ذلك فقد أخفقت في إزالة المحتوى في هذه الحالة. وقد تناولت حالات أخرى اختارها المجلس سياسات Meta بشأن الخطاب الذي يحض على الكراهية والعوامل السياقية التي تحدد ما إذا كان هذا الخطاب ينطوي على عبارات سلوكية متحفظة أو غير متحفظة عن فئة محمية للوقوف على مشروعية التعليق الاجتماعي. ومع هذا، فإن المحتوى في هذه الحالة يستخدم خطاب يحض على الكراهية يجرد الأشخاص من إنسانيتهم بشكل لا لبس فيه لغرض صريح يتمثل في تشويه سمعة مجموعة من الأفراد استنادًا إلى عرقهم وكان من الواجب إزالته. تسلط الحالة الضوء أيضًا على كيف تسهم مشكلات الإنفاذ في إبقاء المحتوى على منصات Meta، وهو ما يشكل تمييزًا ضد مجموعات الأشخاص استنادًا إلى العِرق أو السلالة. ويلاحظ المجلس أن هذا النوع من المحتوى، على نطاق واسع، يُسهم في زيادة تهميش مجموعات الأقليات المرئية بل قد يؤدي إلى حدوث أضرار على أرض الواقع، لا سيّما في المناطق التي تشهد مشاعر عداء ضد المهاجرين.
في السابق، أصدر المجلس توصية تؤكد على أهمية إدراك المشرفين للفروق الدقيقة الموجودة في سياسة Meta بشأن الخطاب الذي يحض على الكراهية. وتحديدًا، أوصى المجلس "Meta بضرورة توضيح معيار المجتمع بشأن الخطاب الذي يحض على الكراهية والإرشادات المقدمة للمراجعين، مع توضيح أنه حتى الإشارات الضمنية للمجموعات التي تتمتع بالحماية محظورة بموجب السياسة، عندما يسهل بشكل معقول فهم تلك الإشارات" ( قرار كرتون كنين، التوصية رقم 1). وقد اتضح تنفيذ Meta لهذه التوصية بشكل جزئي من خلال المعلومات المنشورة. ويؤكد المجلس على ضرورة معالجة Meta لهذه المخاوف بهدف تقليل معدل الخطأ في الإشراف على المحتوى الذي يتضمن خطابًا يحض على الكراهية.
القرار
ألغى المجلس قرار Meta الأصلي بترك المحتوى. ويُقر المجلس بأن Meta قد صحّحت خطأها الأولي بمجرد أن لفت المجلس انتباهها إلى الحالة.
العودة إلى قرارات الحالة والآراء الاستشارية المتعلقة بالسياسة