أسقط
كرتون مؤامرة وسائل الإعلام
تقدّم مستخدم بطعن على قرار Meta بترك تعليق على فيسبوك عبارة عن صورة تتضمن رسمًا كاريكاتوريًا لرجل يهودي يحمل صندوقًا موسيقيًا مكتوب عليه "وسائل الإعلام" ويجلس على كتفه قرد مكتوب عليه اختصار "BLM" (حياة أصحاب البشرة السمراء مهمة).
هذا قرار موجز. تتم في القرارات الموجزة دراسة الحالات التي ألغت فيها Meta قرارها الأصلي بشأن أحد عناصر المحتوى بعد أن لفت المجلس انتباه الشركة إليه. تتضمن هذه القرارات معلومات عن الأخطاء التي أقرت بها Meta، وتوضح للعامة التأثير الذي تحدثه أعمال المجلس. وتوافق عليها لجنة من أعضاء المجلس، وليس المجلس بكامله. ولا تتضمن معالجة للتعليقات العامة، ولا تُشكّل سابقة قانونية لدى المجلس. توفر القرارات الموجزة الشفافية بشأن تصحيحات Meta وتسلّط الضوء على الجوانب التي يمكن أن تحسنها الشركة فيما يتعلق بإنفاذ سياساتها.
ملخص الحالة
تقدّم مستخدم بطعن على قرار Meta بترك تعليق على فيسبوك عبارة عن صورة تتضمن رسمًا كاريكاتوريًا لرجل يهودي يحمل صندوقًا موسيقيًا مكتوب عليه "وسائل الإعلام" ويجلس على كتفه قرد مكتوب عليه اختصار "BLM" (حياة أصحاب البشرة السمراء مهمة). بعد أن لفت المجلس انتباه Meta إلى الطعن، ألغت الشركة قرارها الأصلي وأزالت التعليق.
وصف الحالة ومعلومات أساسية عنها
في مايو 2023، نشر أحد المستخدمين تعليقًا يحتوي على صورة تتضمن رسمًا كاريكاتوريًا لرجل يهودي يحمل صندوقًا موسيقيًا من الطراز القديم، ويجلس على كتفيه قرد. يتضمن الرسم الكاريكاتوري أنفًا معقوفًا بشكل مُبالغ فيه ونجمة داوود وقد نُقش عليها كلمة "يهوذا"، على نحو يشبه الشارات التي أُجبر اليهود على ارتدائها أثناء المحرقة (الهولوكوست). وقد كتب على القرد الذي يجلس على كتفيه "BLM" (وهو الاختصار الخاص بحركة "حياة أصحاب البشرة السمراء مهمة") بينما كُتب على الصندوق الموسيقي "وسائل الإعلام". تمت مشاهدة المنشور أقل من 100 مرة.
ينتهك هذا المحتوى عنصرين مختلفين من عناصر سياسة Meta بشأن الخطاب الذي يحض على الكراهية. تحظر سياسة Meta بشأن الخطاب الذي يحض على الكراهية المحتوى الذي يشير إلى "القوالب النمطية الضارة المرتبطة تاريخيًا بالتخويف"، مثل "الادعاءات بسيطرة اليهود على المؤسسات المالية أو السياسية أو الإعلامية". علاوة على ذلك، تحظر سياسة Meta بشأن الخطاب الذي يحض على الكراهية الصور ومقاطع الفيديو التي تجرد الأشخاص من إنسانيتهم مثل المحتوى الذي يساوي "أصحاب البشرة السمراء بالقرود أو الكائنات الشبيهة بها". ينتهك هذا المحتوى هذين العنصرين إذ يُلمِح لسيطرة اليهود على المؤسسات الإعلامية ويساوي حركة "حياة أصحاب البشرة السمراء مهمة" بالقرود. في الطعن الذي تم تقديمه إلى المجلس، ذكر المستخدم الذي أبلغ عن المحتوى أن المحتوى كان معاديًا للسامية وعنصريًا تجاه أصحاب البشرة السمراء.
تركت Meta المحتوى على فيسبوك في بادئ الأمر. وعندما لفت المجلس انتباه Meta إلى الحالة، قررت الشركة أن المنشور انتهك سياستها بشأن الخطاب الذي يحض على الكراهية، وأن قرارها الأصلي بترك المحتوى لم يكن صائبًا. ثم أزالت الشركة المحتوى من فيسبوك.
سُلطة المجلس ونطاق عمله
يتمتع المجلس بسلطة مراجعة قرار شركة Meta بعد تلقي طعن من الشخص الذي أبلغ عن المحتوى الذي ظل على المنصة (المادة 2، القسم 1 من اتفاقية المجلس؛ المادة 3، القسم 1 من اللائحة الداخلية).
عندما تُقر Meta بأنها ارتكبت خطأً وتُلغي قرارها الصادر بشأن حالة قيد النظر نتيجة مراجعة المجلس، يجوز للمجلس اختيار هذه الحالة لإصدار قرار موجز (المادة 2، القسم 2.1.3 من اللائحة الداخلية). ويراجع المجلس القرار الأصلي لزيادة فهم عمليات الإشراف على المحتوى المتبعة، بهدف تقليل الأخطاء ورفع مستوى الإنصاف لمستخدمي فيسبوك وInstagram.
أهمية الحالة
تسلط الحالة الضوء على الفجوات التي تكتنف إنفاذ Meta لسياساتها بشأن الخطاب الذي يحض على الكراهية، والتي قد تؤدي إلى انتشار المحتوى الذي يروّج القوالب النمطية الضارة والصور ومقاطع الفيديو التي تجرد الأشخاص من إنسانيتهم. يجب تصحيح أخطاء الإنفاذ المماثلة في ضوء مسؤولية Meta تجاه تخفيف حدة مخاطر الضرر المرتبطة بالمحتوى الذي يستهدف المجموعات المهمشة.
سبق أن فحص المجلس مسألة نقص الإنفاذ فيما يتعلق بسياسة Meta بشأن الخطاب الذي يحض على الكراهية حين يتضمن محتوى المستخدم انتهاكات ضمنية واضحة لمعايير الشركة. أوصى المجلس Meta "بتوضيح معيار المجتمع بشأن الخطاب الذي يحض على الكراهية والإرشادات المقدمة للمراجعين، مع توضيح أنه حتى الإشارات الضمنية للمجموعات التي تتمتع بالحماية محظورة بموجب السياسة، عندما يسهل بشكل معقول فهم تلك الإشارات" ( قرار كرتون كنين، التوصية رقم 1). نفذت Meta هذه التوصية جزئيًا.
أصدر المجلس أيضًا توصيات تهدف إلى الحد من عدد أخطاء الإنفاذ. أوصى المجلس Meta "بتنفيذ تدقيق داخلي لإجراء تحليل مستمر لعينة مُعبرة إحصائيًا من قرارات إزالة المحتوى التلقائية لتصحيح أخطاء الإنفاذ والتعلم منها" (قرار أعراض سرطان الثدي والعُري، التوصية رقم 5). تشير Meta إلى أن هذه التوصية بمثابة عمل تنفذه Meta بالفعل، دون نشر معلومات تبرهن على ذلك.
يكرر المجلس أن التنفيذ الكامل للتوصيات المذكورة أعلاه سيساعد على تقليل أخطاء الإنفاذ فيما يتعلق بسياسة الخطاب الذي يحض على الكراهية، وتقليل انتشار المحتوى الذي يروّج القوالب النمطية المسيئة والصور ومقاطع الفيديو التي تجرد الأشخاص من إنسانيتهم.
القرار
ألغى المجلس قرار شركة Meta الأصلي بترك المحتوى. ويُقر المجلس بأن Meta قد صحّحت خطأها الأولي بمجرد أن لفت المجلس انتباهها إلى هذه الحالة.
العودة إلى قرارات الحالة والآراء الاستشارية المتعلقة بالسياسة