قرار قضية متعددة
عبارات تستهدف السكان الأصليين لأستراليا
تقدم أحد المستخدمين بطعن على قرارات Meta بترك منشورين على فيسبوك، تم مشاركتهما بواسطة مستخدم آخر، وذلك ردًا على مقالات إخبارية مع إيراد تعليقات تستهدف السكان الأصليين في أستراليا.
2 تم تضمين من الحالات في هذه الحزمة
FB-CRZUPEP1
حالة بشأن خطاب يحض على الكراهية على فيسبوك
FB-XJP78ARB
حالة بشأن خطاب يحض على الكراهية على فيسبوك
تتم في القرارات الموجزة دراسة الحالات التي ألغت فيها Meta قرارها الأصلي بشأن أحد عناصر المحتوى بعد أن لفت المجلس انتباه الشركة إليه وتتضمن معلومات عن الأخطاء التي أقرت Meta بها. وتوافق عليها لجنة من أعضاء المجلس، وليس المجلس بكامله، ولا تتضمن تعليقات عامة ولا تُشكّل سابقة قانونية لدى المجلس. وتؤدي القرارات الموجزة إلى إحداث تغييرات مباشرة في قرارات Meta، مما يوفر الشفافية بشأن هذه التصحيحات، مع تحديد الجوانب التي يمكن أن تقوم Meta فيها بتحسين الإنفاذ.
الملخص
تقدم أحد المستخدمين بطعن على قرارات Meta بترك منشورين على فيسبوك، تم مشاركتهما من قِبل مستخدم واحد، وذلك ردًا على مقالات إخبارية مع إيراد تعليقات تستهدف السكان الأصليين في أستراليا. وبعد أن لفت المجلس انتباه Meta إلى الطعون، ألغت الشركة قرارتها الأصلية وأزالت المنشورين.
حول الحالات
بين ديسمبر 2023 ويناير 2024، شارك مستخدم أسترالي منشورين على فيسبوك حول السكان الأصليين لأستراليا. ويتضمن المنشور الأول رابطًا إلى مقالة تتناول جهود مجلس أراضي السكان الأصليين لشراء أرض في متنزه يقع في إحدى ضواحي سيدني. يدعو الشرح التوضيحي للمنشور السكان الأصليين إلى أن "الانقشاع إلى الصحراء حيث ينتمون بالفعل". ويشارك المنشور الثاني مقالة تتناول مطاردة بالسيارات في شمال شرق أستراليا. وينادي الشرح التوضيحي للمنشور بسجن "الأغبياء من السكان الأصليين" بالإضافة إلى جَلدهم "100 جلدة".
تحظر سياسة Meta بشأن الخطاب الذي يحض على الكراهية العبارات التي تدعم أو تدعو إلى الفصل أو الاستبعاد على أساس العرق والسلالة. وتحظر Meta على وجه التحديد المحتوى الذي يدعو صراحة إلى "طرد مجموعات معينة" والمحتوى الذي يدعم "الحرمان من الوصول إلى المساحات (الفعلية وعلى الإنترنت)". وتحظر السياسة أيضًا "السباب الموجه" و"التعميمات التي تعبِّر عن الدونية"، بما في ذلك "السمات العقلية" الموجهة إلى شخص أو مجموعة من الأشخاص على أساس السمة (السمات) التي تتمتع بحقوق حماية.
بعد أن لفت المجلس انتباه Meta إلى هذه الحالة، قررت الشركة أن عناصر المحتوى قيد النظر في هذا القرار تنتهك سياستها بشأن الخطاب الذي يحض على الكراهية وأن القرارات الأصلية بترك المحتوى كانت خاطئة. ثم أزالت الشركة المحتوى من فيسبوك.
أوضحت Meta للمجلس أن المنشور يدعو إلى استبعاد السكان الأصليين لأستراليا من المتنزه، وأن كلمة "الانقشاع" عند الإشارة إليهم هي مثال على السباب الموجه إلى أعضاء مجموعة تتمتع بحقوق حماية. علاوة على ذلك، أقرت Meta بأن مصطلح "غبي" هو مصطلح ازدرائي، حيث تشمل معانيه في اللغة الإنجليزية الأسترالية "الشخص الأحمق"، وبذلك يشكّل المنشور انتهاكًا للحظر الذي تفرضه سياسة Meta بشأن الخطاب الذي يحض على الكراهية على العبارات التي تشير إلى أعضاء مجموعة تتصف بسمات تتمتع بحقوق حماية على أنهم أقل شأنًا من الناحية العقلية.
سُلطة المجلس ونطاق عمله
يتمتع المجلس بسلطة مراجعة قرارات شركة Meta بعد تلقي طعون من المستخدمين الذين أبلغوا عن المحتوى الذي تم تركه على المنصة (المادة 2، القسم 1 من اتفاقية المجلس؛ والمادة 3، القسم 1 من اللائحة الداخلية).
عندما تُقر Meta بأنها ارتكبت خطأً وتُلغي قرارها الصادر بشأن حالة قيد النظر نتيجة مراجعة المجلس، يجوز للمجلس اختيار هذه الحالة لإصدار قرار موجز (المادة 2، القسم 2.1.3 من اللائحة الداخلية). ويراجع المجلس القرار الأصلي لزيادة فهم عمليات الإشراف على المحتوى والحد من الأخطاء وتعزيز معدلات الإنصاف لمستخدمي فيسبوك وInstagram وThreads.
أهمية الحالات
أكد المجلس مرارًا وتكرارًا على أهمية التعامل مع الخطاب الذي يحض على الكراهية الموجه ضد الجماعات التي تعرضت تاريخيًا وما زالت تتعرض للتمييز (قرارات المجلس بشأن الإهانات في جنوب أفريقيا ومنشور باللغة البولندية يستهدف الأشخاص المتحولين جنسيًا). كما أعرب المجلس عن مخاوف جدية من أن ممارسات الإنفاذ لدى شركة Meta قد تؤثر بشكل غير متناسب على شعوب الأمم الأولى. في قرار المجلس بشأن حالة حزام وامبوم، أشار المجلس إلى أنه على الرغم من أن الأخطاء أمر لا مفر منه، "فإن أنواع الأخطاء والأشخاص أو المجتمعات التي تتحمل عبء هذه الأخطاء تعكس خيارات التصميم التي يجب تقييمها واختبارها باستمرار." وفي هذه الحالة، شدد المجلس على أهمية مراقبة Meta لدقة إنفاذ سياستها بشأن الخطاب الذي يحض على الكراهية ليس فقط بشكل عام، ولكن أيضًا مع التحلي بحساسية خاصة تجاه أخطاء الإنفاذ فيما يتعلق "بالفئات الفرعية للمحتوى حيث يكون للقرارات غير الصحيحة تأثير واضح لا سيّما فيما يتعلق بحقوق الإنسان." وأوضح المجلس أنه يتعين على شركة Meta من هذا المنطلق "إثبات اتخاذها لإجراءات العناية الواجبة بحقوق الإنسان لضمان أن أنظمتها تعمل بشكل عادل ولا تؤدي إلى تفاقم الاضطهاد التاريخي والمستمر".
وبالنسبة إلى دعوات الإقصاء، أوصى المجلس Meta "بضرورة إعادة صياغة قيمتها المتمثلة في "السلامة" لتؤكد أن الخطاب المنشور على الإنترنت يمكن أن يشكل خطرًا على الأمن الجسدي للأشخاص وحقهم في الحياة، فضلاً عن مخاطر التخويف والإقصاء والإسكات"، (الجرائم المزعومة في ريا كوبو، التوصية رقم 1). وقد تم إثبات تنفيذ هذه التوصية من خلال المعلومات المنشورة.
القرار
ألغى المجلس قرار شركة Meta الأصلي بترك المحتوى. ويُقر المجلس بأن Meta قد صحّحت أخطاءها الأولية بمجرد أن لفت المجلس انتباهها إلى الحالات.
العودة إلى قرارات الحالة والآراء الاستشارية المتعلقة بالسياسة