اتهام مرشح سياسي باكستاني بالتجديف
تم النشر بتاريخ 19 أَيْلُول 2024
لقد أيَّد المجلس قرار Meta بإزالة منشور يتضمن اتهامًا بالتجديف ضد مرشح سياسي. وفي الفترة التي سبقت الانتخابات الباكستانية عام 2024 مباشرةً، كان هناك احتمال لحدوث ضرر وشيك. ومع ذلك، تبيَّن للمجلس أنه ليس واضحًا أن القاعدة ذات الصلة بموجب سياسة تنسيق أنشطة ضارة وترويج ارتكاب الجرائم، والتي تمنع المستخدمين من كشف انتماء شخص في "مجموعة معرضة لخطر كشف الانتماء"، تمتد لتصل إلى الشخصيات العامة المتهمة بالتجديف في باكستان أو في أي مكان آخر. ومن المثير للاهتمام أن هذا الإطار لا يمكن ترجمته بسهولة إلى ثقافات ولغات مختلفة؛ مما يخلق حالة ارتباك عند المستخدمين الذين يحاولون فهم القواعد. وينبغي على Meta تحديث سياستها لتوضيح أنه يتعين على المستخدمين عدم نشر اتهامات بالتجديف ضد أفراد يمكن تحديدهم في الأماكن التي يعتبر فيها التجديف جريمة و/أو حيث توجد مخاطر كبيرة على سلامة المتهمين.
حول الحالة
في يناير 2024، نشر أحد المستخدمين على Instagram مقطع فيديو مدته ست ثوانٍ لمرشح في انتخابات فبراير 2024 الباكستانية وهو يلقي خطابًا. وفي المقطع، يشيد المرشح برئيس الوزراء الأسبق نواز شريف، قائلا "يأتي نواز شريف بعد الله مباشرةً". وكان الفيديو يتضمن نصًا ينتقد فيه المستخدم هذا الثناء لأنه "تجاوز كل حدود الكفر"، زاعمًا أنه كافر وفقًا لتعاليم الإسلام.
قام ثلاثة من مستخدمي Instagram بالإبلاغ عن المحتوى بعد نشره بيوم واحد، ووجد أحد المراجعين البشريين أنه لا ينتهك معايير مجتمع Meta. ولم يقدم أي من المستخدمين الثلاثة طعنًا على هذا القرار. وأبلغ العديد من المستخدمين الآخرين عن المنشور خلال الأيام التالية، إلا أن Meta أكدت أن المحتوى لم ينتهك قواعدها، وذلك بعد المراجعة البشرية والإغلاق التلقائي لبعض البلاغات.
في فبراير 2024، حدد نظام Meta لعمليات المراجعة المبكرة عالية المخاطر (HERO) المحتوى ليخضع لمزيد من المراجعة استنادًا إلى مؤشرات على أنه من المحتمل جدًا أن ينتشر بسرعة. وتم تصعيد المحتوى إلى خبراء السياسة في Meta، والذين بدورهم قاموا بإزالته لانتهاكه قاعدة سياسة تنسيق أنشطة ضارة وترويج ارتكاب الجرائم استنادًا إلى "كشف الانتماء". وتُعرِّف Meta "كشف الانتماء" على أنه "كشف هوية أو أماكن أي شخص يزعم أنه عضو في مجموعة معرضة لخطر كشف الانتماء". ووفقًا لتوجيهات Meta الداخلية للمراجعين، تضم المجموعة المعرضة لخطر كشف الانتماء أشخاصًا متهمين بالتجديف في باكستان. وعندما تم الإبلاغ عن الفيديو بواسطة نظام عمليات المراجعة المبكرة عالية الخطورة (HERO) وإزالته، كان قد تمت مشاهدته 48 ألف مرة ومشاركته أكثر من 14 ألف مرة. وفي مارس 2024، أحالت Meta الحالة إلى مجلس الإشراف.
تعتبر الجرائم المتعلقة بالدين مخالفة للقانون في باكستان، وتنص قواعد وسائل التواصل الاجتماعي في البلاد على إزالة محتوى "التجديف" على الإنترنت.
أهم النتائج
تبيَّن للمجلس أنه نظرًا للمخاطر المقترنة باتهامات التجديف في باكستان، فإن إزالة المحتوى كانت تتماشى مع مبادئ سياسة تنسيق أنشطة ضارة وترويج ارتكاب الجرائم من أجل منع "الضرر على أرض الواقع".
ليس من البديهي بالنسبة للمستخدمين أن المخاطر التي تواجه أقليات دينية أو عقائدية معينة تتعلق بـ "كشف الانتماء"، كما هو شائع (بعبارة أخرى، المخاطر الناتجة عن الكشف عن حالة خاصة علنًا). إن استخدام مصطلح "كشف الانتماء" في هذا السياق هو أمر مُحير، سواء باللغة الإنجليزية أو حتى الأردية. ليس من الواضح ما إذا كان الأشخاص المتهمون بالتجديف يعتبرون أنفسهم أعضاء في "مجموعة" معرضة لخطر "كشف الانتماء"، أو أن السياسيين قد يندرجون ضمن "مجموعة معرضة لخطر كشف الانتماء" بسبب الخُطب التي يلقونها علنًا، وخاصة أثناء الانتخابات. باختصار، السياسة ببساطة لا توضح للمستخدمين ما إذا كان الفيديو مخالفًا.
علاوة على ذلك، لا تحدد السياسة السياقات التي تغطيها فيما يتعلق بكشف الانتماء والمجموعات التي تعتبر معرضة للخطر. كما أنها لا تنص صراحةً على أن هؤلاء المتهمين بالتجديف يتمتعون بالحماية في الأماكن التي تشكل فيها هذه الاتهامات خطرًا وشيكًا بالأذى. وأوضحت Meta أنه على الرغم من أن لديها قائمة داخلية بالمجموعات المعرضة لخطر كشف الانتماء، إلا أنها لا تطرح هذه القائمة علنًا حتى لا يتمكن المحتالون من الالتفاف على القواعد. ويعترض المجلس على أن هذا السبب يبرر عدم وضوح السياسة بشكل عام. إن التحديد الواضح لسياقات كشف الانتماء والمجموعات المعرضة للخطر من شأنه أن يُبلغ الأهداف المحتملة لادعاءات التجديف بتعارُض مثل هذه الادعاءات بشكل صريح مع قواعد Meta وأنه ستتم إزالتها. وهو بدوره ما قد يعزز الإبلاغ بواسطة المستخدمين المتهمين بالتجديف في السياقات التي يشكل فيها التجديف مخاطر قانونية ومخاطر تتعلق بالسلامة، بما في ذلك باكستان. وقد تؤدي الخصوصية الأكبر في القاعدة العامة أيضًا إلى إنفاذ أكثر دقة من قِبل المراجعين البشريين.
يشعر المجلس أيضًا بالقلق من أن العديد من المراجعين تبيَّنوا أن المحتوى لا ينتهك القانون على الرغم من أن المستخدمين أبلغوا عنه مرارًا وتكرارًا، كما أن الإرشادات الداخلية لشركة Meta، على الرغم من أنها أكثر وضوحًا، تتضمن صراحةً الأشخاص المتهمين بالتجديف في باكستان في المجموعات المعرضة لخطر كشف الانتماء. وفقط عندما حدد نظام Meta لعمليات المراجعة المبكرة عالية الخطورة المحتوى، بعد انتشاره على نطاق واسع على ما يبدو، تم تصعيده إلى خبراء السياسة الداخليين وتم تحديد أنه ينتهك القواعد. وعلى هذا النحو، ينبغي لمراجعي Meta على نطاق واسع الحصول على المزيد من التدريب المخصص، خاصة في سياقات مثل باكستان.
قرار مجلس الإشراف
أيَّد مجلس الإشراف القرار الذي اتخذته شركة Meta بإزالة المحتوى.
يوصي المجلس Meta بما يلي:
- تحديث سياسة تنسيق أنشطة ضارة وترويج ارتكاب الجرائم لتوضيح أنه يتعين على المستخدمين عدم نشر اتهامات بالتجديف ضد أفراد يمكن تحديدهم في الأماكن التي يعتبر فيها التجديف جريمة و/أو توجد مخاطر كبيرة على سلامة الأشخاص المتهمين بالتجديف.
- تدريب المراجعين على نطاق واسع ممن يغطون المواقع التي تشكل فيها اتهامات التجديف خطرًا وشيكًا لإلحاق الأذى بالشخص المتهم، وتزويدهم بإرشادات إنفاذ أكثر تحديدًا لتحديد الفروق الدقيقة والسياق بشكل فعال ومراعاتها، في المنشورات التي تحتوي على مثل هذه الادعاءات.
لمزيد من المعلومات
To read public comments for this case, click here.