أسقط

الحمد لله

تقدم أحد المستخدمين بطعن على قرار Meta بإزالة منشوره على Instagram، والذي يتضمن صورة له بملابس الزفاف، مصحوبة بشرح توضيحي يقول "الحمد لله".

نوع القرار

ملخص

السياسات والمواضيع

عنوان
ثقافة، عِرق وسلالة، مجتمعات مهمشة
معيار المجتمع
أفراد خطرون ومنظمات خطرة

المناطق/البلدان

موقع
المملكة المتحدة، الهند، باكستان

منصة

منصة
Instagram

هذا قرار موجز. تفحص القرارات الموجزة الحالات التي ألغت فيها Meta قرارها الأصلي بشأن المحتوى بعد أن لفت المجلس انتباه الشركة إليها. وتتضمن هذه القرارات معلومات حول أخطاء Meta التي تم إقرارها. وتوافق عليها لجنة من أعضاء المجلس، وليس المجلس بكامله. إنها لا تنظر في التعليقات العامة، ولا تُشكّل سابقة قانونية لدى المجلس. توفر القرارات الموجزة الشفافية بشأن تصحيحات Meta وتُبرز مجالات التحسين المحتمل في مسار إنفاذ سياساتها.

ملخص الحالة

تقدم أحد المستخدمين بطعن على قرار Meta بإزالة منشوره على Instagram، والذي يتضمن صورة له بملابس الزفاف، مصحوبة بشرح توضيحي يقول "الحمد لله"، وهو تعبير شائع للتعبير عن الحمد. وبعد أن لفت مجلس الإشراف انتباه Meta إلى الطعن، ألغت الشركة قرارها الأصلي وأعادت المنشور.

وصف الحالة ومعلومات أساسية عنها

في يونيو 2023، نشر أحد مستخدمي Instagram في باكستان صورة لنفسه بملابس الزفاف في حدث تقليدي يسبق الزفاف. تضمن الشرح التوضيحي المصاحب للمنشور عبارة "الحمد لله" والتي يستخدمها الكثير من الأشخاص في المجتمعات المسلمة والعربية للتعبير عن الحمد. حصل المنشور على أقل من 1000 مشاهدة.

وقد تمت إزالته لانتهاك سياسة المنظمات الخطرة والأفراد الخطرين التي تقرها الشركة. تحظر السياسة المحتوى الذي ينطوي على إشادة أو دعم موضوعي أو تمثيل للمنظمات أو الأفراد الخطرين من منظور Meta.

في بيانه إلى المجلس، أكد المستخدم على أن عبارة "الحمد لله" هي تعبير ثقافي شائع يُستخدم للتعبير عن الامتنان وليس لها "ارتباط قريب أو مباشر بجماعات الكراهية، ولا تحض بطبيعتها على الكراهية أو ترتبط بأي منظمة خطرة". ويرى المجلس أن العبارة المذكورة بمثابة خطاب يتمتع بالحماية بموجب معايير مجتمع Meta، وذلك تماشيًا مع حرية التعبير وقيمة "حرية الرأي" التي تعتنقها الشركة.

أكد المستخدم على شيوع هذه العبارة من خلال الإشارة إلى أنها "واحدة من أكثر العبارات شيوعًا لدى أكثر من 2 مليار مسلم حول العالم... وإذا كانت هذه العبارة هي سبب إزالة المنشور، فأنا أعتبر أن هذا يلحق الضرر بعموم المسلمين على Instagram وجهلاً متأصلاً إلى حد ما".

بعد أن لفت المجلس انتباه Meta إلى هذه الحالة، قررت الشركة أن المحتوى "لم يتضمن أي إشارة إلى منظمة أو أفراد مصنّفين"، وبالتالي لم ينتهك سياساتها بشأن المنظمات الخطرة والأفراد الخطرين. وبالتالين أعادت Meta المحتوى إلى Instagram.

سُلطة المجلس ونطاق عمله

يتمتع المجلس بسلطة مراجعة قرار شركة Meta بعد تلقي طعن من المستخدم الذي تعرض المحتوى الخاص به إلى الإزالة (المادة 2، القسم 1 من اتفاقية المجلس؛ المادة 3، القسم 1 من اللائحة الداخلية).

عندما تُقر Meta بأنها ارتكبت خطأً وتُلغي قرارها الصادر بشأن حالة قيد النظر نتيجة مراجعة المجلس، يجوز للمجلس اختيار هذه الحالة لإصدار قرار موجز (المادة 2، القسم 2.1.3 من اللائحة الداخلية). ويراجع المجلس القرار الأصلي لزيادة فهم عملية الإشراف على المحتوى، بهدف تقليل الأخطاء ورفع مستوى الإنصاف لصالح الأشخاص الذين يستخدمون فيسبوك وInstagram.

أهمية الحالة

تسلط هذه الحالة الضوء على عدم الاتساق الذي يكتنف تطبيق Meta لسياستها بشأن المنظمات الخطرة والأفراد الخطرين، والتي قد تؤدي إلى إزالة المحتوى عن طريق الخطأ. وتؤدي مثل هذه الأخطاء في الإنفاذ إلى تقويض مسؤولية Meta تجاه معاملة المستخدمين بإنصاف.

في السابق، أصدر المجلس توصيات تتعلق بإنفاذ سياسة المنظمات الخطرة والأفراد الخطرين. أوصى المجلس Meta "بتقييم عمليات الإشراف المؤتمتة التي تستعين بها في إنفاذ سياسة المنظمات الخطرة والأفراد الخطرين" ( حالة عزلة أوجلان، التوصية رقم 2). رفضت Meta تنفيذ هذه التوصية. وعلاوة على ذلك، أوصى المجلس Meta "بتحسين قدرتها الاستيعابية المخصصة لمراجعة نظام تجاوز النتائج الإيجابية الخاطئة عالية التأثير على مستوى اللغات لضمان خضوع المزيد من قرارات المحتوى التي قد تشكل أخطاءً في الإنفاذ لمراجعة بشرية إضافية" ( حالة ذِكر طالبات في التقارير الإخبارية، التوصية رقم 7). ذكرت Meta أن هذا بمثابة عمل تقوم به بالفعل لكنها لم تنشر معلومات تثبت ذلك. أخيرًا، أوصى المجلس Meta بنشر "معلومات أكثر شمولاً عن معدلات الخطأ في إنفاذ القواعد فيما يتعلق "بمدح" و"دعم" الأفراد الخطرين والمنظمات الخطرة، مقسمة حسب المنطقة واللغة" في تقارير الشفافية الصادرة عن Meta (حالة عزلة أوجلان، التوصية رقم 12). رفضت Meta تنفيذ هذه التوصية.

في هذه الحالة، لم يرد ذكر ما يمكن اعتباره خطيرًا سواء منظمة أو فرد. وقد ذكر المجلس في عدة حالات أن مشكلات إساءة فهم الجوانب الثقافية وأخطاء الترجمة قد تؤدي إلى ارتكاب أخطاء في إنفاذ سياسات Meta. وقد أصدر المجلس أيضًا توصيات تتعلق بالإشراف على المحتوى العربي. وأوصى المجلس Meta "بترجمة معايير التنفيذ الداخلية والأسئلة المعروفة"، وهي إرشادات لمشرفي المحتوى "إلى اللغة العربية القياسية الحديثة" (حالة تغيير دلالة كلمات عربية ازدرائية إلى كلمات مقبولة، التوصية رقم 1). رفضت Meta تنفيذ هذه التوصية.

يكرر المجلس أن التنفيذ الكامل للتوصيات المذكورة أعلاه سيساعد على تقليل أخطاء الإنفاذ بموجب سياسة المنظمات الخطرة والأفراد الخطرين، مما يقلل عدد المستخدمين المتضررين من عمليات الإزالة التي تتم عن طريق الخطأ.

القرار

ألغى المجلس قرار شركة Meta الأصلي بإزالة المحتوى. ويُقر المجلس بأن Meta قد صحّحت خطأها الأولي، بعد أن لفت المجلس انتباهها إلى الحالة.

العودة إلى قرارات الحالة والآراء الاستشارية المتعلقة بالسياسة