مجلس الإشراف يلغي قرار Meta الأصلي بشأن حالة تضمنت منشورًا باللغة البولندية يستهدف الأشخاص المتحولين جنسيًا
تم النشر بتاريخ 16 كانُون الثانِي 2024
ألغى مجلس الإشراف قرار Meta الأصلي بترك منشور على فيسبوك استهدف فيه أحد المستخدمين الأشخاص المتحولين جنسيًا بخطاب عنيف يدعو أعضاء هذه المجموعة إلى الانتحار. ويرى المجلس أن المنشور ينتهك معايير المجتمع بشأن الخطاب الذي يحض على الكراهية والانتحار وإيذاء الذات. ومع ذلك، لا تتعلق المشكلة الجوهرية في هذه الحالة بالسياسات، وإنما بإنفاذها. ومع تكرار فشل Meta في اتخاذ إجراء الإنفاذ الصحيح، على الرغم من تعدد الإشارات التي تشير إلى احتواء المنشور على محتوى ضار، يستنتج المجلس أن الشركة لا ترقى إلى مستوى المُثُل التي عبّرت عنها بشأن سلامة أعضاء مجتمع الميم (LGBTQIA+). ويحث المجلس شركة Meta على سد الفجوات التي تكتنف الإنفاذ، بما في ذلك عن طريق تحسين الإرشادات الداخلية للمراجعين.
حول هذه الحالة
في أبريل 2023، نشر أحد مستخدمي فيسبوك في بولندا صورة لستارة مخططة بألوان الأزرق والوردي والأبيض لعلم المتحولين جنسيًا، مع نص باللغة البولندية يقول: "تكنولوجيا جديدة ... ستائر تعلّق نفسها"، وكُتب أعلى ذلك النص، "تنظيف الربيع
بين أبريل ومايو 2023، أبلغ 11 مستخدمًا مختلفًا عن المنشور بإجمالي 12 مرة. أعطت أنظمة Meta التلقائية أولوية المراجعة البشرية لبلاغين فقط من أصل 12 بلاغًا، وتم إغلاق باقي البلاغات. وقد تم إرسال البلاغين إلى المراجعة البشرية لاحتمال انتهاك معيار فيسبوك بشأن الانتحار وإيذاء الذات، وتم اعتبارهما بعد التقييم غير مخالفين. ولم يتم إرسال أي من البلاغات إلى المراجعة البشرية استنادًا إلى سياسة الخطاب الذي يحض على الكراهية.
تقدم ثلاثة مستخدمين بعد ذلك بطعن على قرار Meta بترك المنشور على فيسبوك، حيث أسفر طعن منها عن قيام المراجع البشري بتأييد القرار الأصلي استنادًا إلى معيار المجتمع بشأن الانتحار وإيذاء الذات. ومرة أخرى، لم يتم إرسال الطعون الأخرى المقدمة بموجب معيار المجتمع بشأن الخطاب الذي يحض على الكراهية إلى المراجعة البشرية. وأخيرًا، تقدم أحد المستخدمين الذين أبلغوا عن المحتوى في الأصل بطعن إلى المجلس. ونتيجة لوقوع اختيار المجلس على هذه الحالة، قررت Meta أن المنشور انتهك سياسة الخطاب الذي يحض على الكراهية وسياسة الانتحار وإيذاء الذات وأزالته من فيسبوك. وبالإضافة إلى ذلك، قامت الشركة بتعطيل حساب المستخدم الذي نشر المحتوى لوجود عدة انتهاكات سابقة.
النتائج الرئيسية
يرى المجلس أن المحتوى انتهك سياسة Meta بشأن الخطاب الذي يحض على الكراهية لأن يتضمن "خطابًا ينطوي على عنف" في صورة دعوة مجموعة لديها سمة تتمتع بحقوق حماية إلى الموت عن طريق الانتحار. وقد أدى المنشور الذي يؤيد الانتحار في أوساط المتحولين جنسيًا إلى خلق جو من الترهيب والإقصاء، وكان من الممكن أن يتسبب في حدوث ضرر بدني. وبالنظر إلى طبيعة النص والصورة، أدى المنشور أيضًا إلى تفاقم أزمة الصحة النفسية التي يعاني منها أعضاء مجتمع المتحولين جنسيًا. ويشير تقرير حديث صادر عن تحالف المثليين والمثليات ضد التشهير (GLAAD) إلى "الأثر النفسي المؤلم للغاية الناتج عن التعرض المستمر للإهانات والسلوك البغيض" على الإنترنت. ويجد المجلس دعمًا إضافيًا لاستنتاجه في السياق الأوسع للأضرار التي يواجهها مجتمع الميم (LGBTQIA+) على الإنترنت وعلى أرض الواقع في بولندا، بما في ذلك الهجمات والخطاب السياسي الصادر عن شخصيات حكومية وعامة مؤثرة.
يشعر المجلس بالقلق من عدم التقاط المراجعين البشريين للقرائن السياقية. وقد شكّلت إشارة المنشور إلى ارتفاع خطر الانتحار ("الستائر التي تعلّق نفسها") وتأييد موت هذه الفئة ("تنظيف الربيع") انتهاكات واضحة لمعيار المجتمع بشأن الخطاب الذي يحض على الكراهية، في حين أن تعريف منشئ المحتوى لذاته على أنه كاره للمتحولين جنسيًا يشكّل، وحده، انتهاكًا آخر. يحث المجلس Meta على تحسين دقة إنفاذ سياسة الخطاب الذي يحض على الكراهية فيما يتعلق بأعضاء مجتمع الميم (LGBTQIA+)، وبالأخص عندما تتضمن المنشورات صورًا ونصوصًا تتطلب سياقًا لتفسيرها. في هذه الحالة، نجد أن الإشارات المشفّرة نوعًا ما إلى الانتحار وإيراد تصوير مرئي لمجموعة تتمتع بالحماية (عَلَم المتحولين جنسيًا) شكّل نوعًا من "الإبداع الخبيث". ويمثل ذلك مؤشرًا على قيام المسيئين باستحداث وسائل جديدة لاستهداف مجتمع الميم (LGBTQIA+) من خلال المنشورات والميمات التي يتذرعون بأنها من قبيل "الدعابة أو السخرية"، ولكنها في الواقع كراهية أو إساءة.
علاوة على ذلك، يشعر المجلس بالانزعاج من بيان Meta بأن فشل المراجعين البشريين في إزالة المحتوى تتماشى مع التطبيق الصارم لإرشاداتها الداخلية. قد يشير ذلك إلى أن إرشادات Meta الداخلية لا تراعي بالقدر الكافي آلية تفاعل النصوص والصور لتمثيل مجموعة محددة من خلال الهوية الجنسية لأفرادها.
في حين أن المنشور قد انتهك أيضًا وبوضوح معيار مجتمع فيسبوك بشأن الانتحار وإيذاء الذات، يرى المجلس ضرورة أن تحظر هذه السياسة بشكل أكثر وضوحًا المحتوى الذي يروّج الانتحار ويستهدف مجموعة محددة من الأشخاص، بدلاً من استهداف شخص واحد في تلك المجموعة.
في هذه الحالة، أثرت أنظمة ترتيب أولوية المراجعة البشرية بشكل كبير في عملية الإنفاذ، بما في ذلك كيفية تعامل الشركة مع تعدد البلاغات بشأن عنصر محتوى واحد. وتراقب Meta وتحذف (تزيل) البلاغات المكررة من أجل "ضمان اتساق قرارات المراجعة وإجراءات الإنفاذ". وتضمنت الأسباب الأخرى لإغلاق البلاغات تلقائيًا انخفاض درجة خطورة المحتوى وانخفاض درجة سرعة انتشاره (عدد المشاهدات التي حققها المحتوى)، مما يعني أنه لم تتم وضع أولوية على المحتوى ليخضع للمراجعة البشرية. في هذه الحالة، يعتقد المجلس أنه كان من الممكن أخذ السيرة الذاتية للمستخدم في الحسبان كإشارة ذات صلة عند تحديد درجة الخطورة.
يعتقد المجلس أن على Meta الاستثمار بدرجة أكبر في تطوير أدوات التصنيف التي تكتشف المحتوى المخالف المحتمل الذي يؤثر في مجتمع الميم (LGBTQIA+) وتحسين تدريب المراجعين البشريين على الأضرار ذات الصلة بالهوية الجنسية.
قرار مجلس الإشراف
ألغى مجلس الإشراف قرار شركة Meta الأصلي بإبقاء المحتوى.
ويوصى المجلس Meta بما يلي:
- إيراد توضيح في صفحة سياستها بشأن الانتحار وإيذاء الذات بأن هذه السياسة تحظر المحتوى الذي يروّج الانتحار أو يشجّع عليه الموجه إلى مجموعة محددة من الأشخاص.
- تعديل الإرشادات الداخلية التي تقدمها للمراجعين الذين يعملون على نطاق واسع لضمان فهم عمليات التصوير المرئي للهوية الجنسية من خلال استخدام الأعلام وليس الشكل البشري كأدوات لتمثيل مجموعة من الأشخاص تُعرف من خلال الهوية الجنسية لأعضائها.
لمزيد من المعلومات
للاطلاع على القرار الكامل بشأن الحالة، انقر هنا.
للاطلاع على ملخص تعليقات العامة بشأن هذه الحالة، يرجى النقر انقر هنا.