أسقط
تهديد بالعنف ضد الروهينجا
تقدم مستخدم بطعن على قرار Meta بترك تعليق على منشور في فيسبوك يدّعي أن الروهينجا يسببون اضطرابات وأنهم "محتالون". وقد دعا التعليق إلى اتخاذ إجراءات رقابية ضدهم.
تتم في القرارات الموجزة دراسة الحالات التي ألغت فيها Meta قرارها الأصلي بشأن أحد عناصر المحتوى بعد أن لفت المجلس انتباه الشركة إليه وتتضمن معلومات عن الأخطاء التي أقرت Meta بها. وتوافق عليها لجنة من أعضاء المجلس، وليس المجلس بكامله، ولا تتضمن تعليقات عامة ولا تُشكّل سابقة قانونية لدى المجلس. وتؤدي القرارات الموجزة إلى إحداث تغييرات مباشرة في قرارات Meta، مما يوفر الشفافية بشأن هذه التصحيحات، مع تحديد الجوانب التي يمكن أن تقوم Meta فيها بتحسين الإنفاذ.
الملخص
تقدم مستخدم بطعن على قرار Meta بترك تعليق على منشور في فيسبوك يدّعي أن الروهينجا يسببون اضطرابات وأنهم "محتالون". وقد دعا التعليق إلى اتخاذ إجراءات رقابية ضدهم بالإضافة إلى "محوهم تمامًا". تسلط هذه الحالة الضوء على مشكلة متكررة تتمثل في نقص إنفاذ سياسة الشركة بشأن العنف والتحريض، وتحديدًا تجاه التهديدات التي تستهدف الفئات المعرضة للخطر. بعد أن لفت المجلس انتباه Meta إلى الطعن، ألغت الشركة قرارها الأصلي وأزالت المنشور.
حول الحالة
في يناير 2024، قام أحد مستخدمي فيسبوك بالتعليق على منشور عن الروهينجا في ميانمار. وقد صاحب المنشور شرحًا توضيحيًا ظهر أعلى صورة لخنزير يتغوط. وقد كتب المستخدم في الشرح التوضيحي "هذه الفئة" (في إشارة إلى الروهينجا) عبارة عن "محتالين" "يواصلون التسبب في حدوث العديد من المشكلات الاجتماعية". ويقول الشرح التوضيحي إن حكومة ميانمار قد اتخذت المسار الصحيح بالعمل على "كبح جماح" الروهينجا ويدعو إلى "محوهم تمامًا من على وجه الأرض" لتحقيق "الأمن القومي والرفاهية".
كتب المستخدم الذي قدّم الطعن في بيانه إلى المجلس أنه يعيش في ميانمار وأعرب عن إحباطه إزاء عدم اتخاذ Meta إجراءات ضد التعليقات التي تدعو إلى الإبادة الجماعية، مثل التعليق الموجود في هذه الحالة. وأوضح أنه شهد بنفسه كيف أدت عدم قدرة Meta على ضبط الخطاب الذي يحض على الكراهية ضد الروهينجا بشكل فعّال إلى حدوث عنف على أرض الواقع، وكيف يعاني الروهينجا في مخيمات اللاجئين.
وفقًا لسياسة Meta بشأن العنف والتحريض، تحظر الشركة تحديدًا "التهديدات بالعنف التي قد تُفضي إلى الموت (والأشكال الأخرى من العنف شديد الخطورة)." بعد أن تقدم المستخدم بطعن إلى Meta، تركت الشركة المحتوى في بادئ الأمر على المنصة.
وبعد أن لفت المجلس انتباه Meta إلى هذه الحالة، قررت الشركة أن التعليق "يدعو إلى ارتكاب أعمال عنف تفضي إلى الموت من خلال 'محو' الروهينجا من على وجه الأرض"، وبالتالي فإنه ينتهك معيار المجتمع بشأن العنف والتحريض. ثم أزالت الشركة المحتوى من المنصة.
سُلطة المجلس ونطاق عمله
يتمتع المجلس بسلطة مراجعة قرار شركة Meta بعد تلقي طعن من المستخدم الذي أبلغ عن المحتوى الذي تم تركه (المادة 2، القسم 1 من اتفاقية المجلس؛ والمادة 3، القسم 1 من اللائحة الداخلية).
عندما تُقر Meta بأنها ارتكبت خطأً وتُلغي قرارها الصادر بشأن حالة قيد النظر نتيجة مراجعة المجلس، يجوز للمجلس اختيار هذه الحالة لإصدار قرار موجز (المادة 2، القسم 2.1.3 من اللائحة الداخلية). ويراجع المجلس القرار الأصلي لزيادة فهم عمليات الإشراف على المحتوى والحد من الأخطاء وتعزيز معدلات الإنصاف لمستخدمي فيسبوك وInstagram وThreads.
أهمية الحالة
تسلط هذه الحالة الضوء على المشكلات المتعلقة بنقص إنفاذ Meta المتكرر تجاه الخطاب الذي ينطوي على عنف وتحريض ضد الروهينجا. وهي مشكلة معروفة ومتكررة: حيث كلّفت Meta في عام 2018 بإجراء تقييم مستقل لحقوق الإنسان للوقوف على الدرجة التي أسهمت بها الشركة في تفاقم حملات التضليل والتحيز ضد الروهينجا. وقد تم توثيق عدم قدرة Meta على الإشراف على المحتوى الذي يؤيد الإبادة الجماعية ويشجع التطهير العرقي ضد السكان المهمشين من الروهينجا من قِبل مجموعات المجتمع المدني، مثل منظمة العفو الدولية في تقرير يتناول بالتفصيل دور Meta في الفظائع المرتكبة ضد المجتمع.
أوصى المجلس في قرار سابق بأنه "ينبغي على شركة Meta إعادة صياغة قيمة "السلامة" لتؤكد أن الخطاب المنشور على الإنترنت يمكن أن يشكل خطرًا على الأمن الجسدي للأشخاص وحقهم في الحياة، فضلاً عن مخاطر التخويف والإقصاء والإسكات"، (الجرائم المزعومة في ريا كوبو، التوصية رقم 1). وقد نفذت Meta هذه التوصية جزئيًا.
يحث المجلس Meta على تحسين الاكتشاف واتخاذ إجراءات الإنفاذ ضد الخطاب الذي يدعو إلى العنف ضد الروهينجا.
القرار
ألغى المجلس قرار شركة Meta الأصلي بترك المحتوى. ويُقر المجلس بأن الشركة قد صحّحت خطأها الأولي بمجرد أن لفت المجلس انتباهها إلى الحالة.
العودة إلى قرارات الحالة والآراء الاستشارية المتعلقة بالسياسة