قرار قضية متعددة
منشورات مؤيدة لأعمال الشغب في المملكة المتحدة
تم النشر بتاريخ 23 نَيْسان 2025
ألغى مجلس الإشراف، بعد المراجعة، قرارات Meta الأصلية بالإبقاء على ثلاث منشورات مختلفة تم نشرها على فيسبوك خلال أعمال الشغب التي اندلعت في المملكة المتحدة صيف عام 2024. واعتبر أن كل منها كان ينطوي على خطر حدوث ضرر وشيك ومرجّح خلال فترة اتسمت بالغضب المتصاعد والعنف المتزايد.
3 تم تضمين من الحالات في هذه الحزمة
FB-9IQK53AU
حالة بشأن على فيسبوك
FB-EAJQEE0E
حالة بشأن على فيسبوك
FB-93YJ4A6J
حالة بشأن على فيسبوك
الملخص
ألغى مجلس الإشراف، بعد المراجعة، قرارات Meta الأصلية بالإبقاء على ثلاث منشورات مختلفة تم نشرها على فيسبوك خلال أعمال الشغب التي اندلعت في المملكة المتحدة صيف عام 2024. واعتبر أن كل منها كان ينطوي على خطر حدوث ضرر وشيك ومرجّح. وكان يجب إزالتها على الفور. وقد نُشر هذا المحتوى في سياق من الغضب المتصاعد والعنف المتنامي، والذي تغذّيه معلومات مضللة وكاذبة عبر وسائل التواصل الاجتماعي. وكان ذلك في وقتٍ تفجّرت فيه المشاعر المُعادية للمسلمين والمهاجرين في الشوارع. ورغم أن Meta فعّلت بروتوكول سياسة الأزمات استجابةً لأعمال الشغب، وصنّفت المملكة المتحدة على إثر ذلك كأحد المواقع عالية الخطورة في 6 أغسطس، فقد جاءت هذه التدابير متأخرة. في ذلك الوقت، كانت جميع المنشورات الثلاث قد نُشرت بالفعل. وأعرب المجلس عن قلقه من تأخر Meta في تنفيذ إجراءات التعامل مع الأزمات، مشيرًا إلى أن تلك الخطوات كان يجب اتخاذها على الفور من أجل وقف زيادة انتشار المحتوى الضار.
ملاحظة إضافية: أشار المجلس إلى أن المراجعات التي أُجريت في 7 يناير 2025 على سياسة "السلوك الذي يحض على الكراهية"، والتي أعيد تسميتها، لم تغيّر نتيجة هذه الحالات، على الرغم من أن المجلس أخذ بعين الاعتبار القواعد المعمول بها وقت النشر والتحديثات اللاحقة أثناء مداولاته. وأعرب المجلس عن قلقه إزاء التغييرات الواسعة في السياسة والإنفاق التي أعلنتها Meta على عجل في يناير، مشيرًا إلى أن الشركة لم تشارك علنًا أي دليل على قيامها باتخاذ إجراءات العناية الواجبة المتعلقة بحقوق الإنسان مسبقًا، بما يتماشى مع التزاماتها بموجب المبادئ التوجيهية للأمم المتحدة بشأن الأعمال التجارية وحقوق الإنسان. وأكد المجلس على أهمية أن تضمن Meta تحديد ومنع أي آثار سلبية على حقوق الإنسان على مستوى العالم.
حول الحالات
في الحالة الأولى، تم نشر منشور يحتوي على نص فقط في بداية أعمال الشغب، دعا إلى تحطيم المساجد وحرق المباني التي يقيم فيها من وصفهم بـ "المهاجرين" و"الإرهابيين" و"الحثالة". وقد تجاوز عدد مشاهدات هذا المنشور 1000 مشاهدة.
أما الحالتان الثانية والثالثة، فتتعلقان بإعادة نشر صور يُرجح أنه تم إنشاؤها بواسطة الذكاء الاصطناعي. تُظهر إحداهما رجلًا عملاقًا يرتدي قميصًا عليه علم المملكة المتحدة وهو يطارد رجالًا مسلمين أصغر حجمًا بطريقة تهديدية. يتضمن النص الظاهر على الصورة وقتًا ومكانًا للتجمع من أجل أحد الاحتجاجات، إلى جانب علامة الهاشتاج "EnoughIsEnough" (هذا يكفي)، بينما يقول الشرح التوضيحي: "ها نحن نعود مجددًا". وكان عدد مشاهدات هذا المنشور أقل من 1000 مشاهدة. تُصوّر الصورة الثانية أربعة رجال مسلمين يركضون أمام مبنى البرلمان البريطاني خلف طفل أشقر يبكي. يُلوّح أحد الرجال بسكين، بينما تحلّق طائرة فوقهم باتجاه ساعة بيج بن. تتضمن هذه الصورة شعار حساب مؤثر على وسائل التواصل الاجتماعي معروف بخطابه المُعادي للمهاجرين في أوروبا، وتتضمن منشوراته معلومات مضللة وكاذبة. وقد حصدت الصورة أكثر من 1000 مشاهدة.
تم الإبلاغ عن الحالات الثلاث من قبل مستخدمين آخرين على فيسبوك بسبب الخطاب الذي يحض على الكراهية أو العنف. قررت Meta الإبقاء على المنشورات الثلاث بعد مراجعتها من قِبل أنظمتها التلقائية فقط. وبعد طعن المستخدمين على هذه القرارات أمام المجلس واختيار هذه الحالات، تمت مراجعة المحتوى من قبل مراجعين بشريين، وقررت Meta إزالة المنشور الذي يحتوي على نص فقط في الحالة الأولى. وأكّدت الشركة قرارها الأصلي بالإبقاء على الصورتين اللتين يُرجّح أنه تم إنشاؤهما بواسطة الذكاء الاصطناعي.
بين 30 يوليو و7 أغسطس 2024، اندلعت أعمال شغب عنيفة في المملكة المتحدة عقب جريمة قتل ثلاث فتيات في بلدة ساوثبورت. وعلى إثر هذا الهجوم الذي تم باستخدام سلاح أبيض، انتشرت معلومات مضللة وكاذبة على وسائل التواصل الاجتماعي تزعم زورًا أن الجاني مسلم وطالب لجوء.
النتائج الرئيسية
خلُص المجلس إلى أن المنشور النصي وصورة "الرجل العملاق" كلاهما ينتهكان سياسة العنف والتحريض، التي تحظر التهديدات بارتكاب أعمال عنف شديد الخطورة ضد هدف معيّن، أو التهديدات بارتكاب أعمال عنف ضد أفراد أو جماعات استنادًا إلى السمات التي تتمتع بحقوق حماية أو حالة الهجرة. يحتوي المنشور النصي على تهديد عام وتحريض على العنف ضد أشخاص وممتلكات، إلى جانب تحديد أهداف استنادًا إلى الدين وحالة الهجرة. أما صورة "الرجل العملاق" فهي دعوة صريحة لتحريض الأشخاص على التجمع وارتكاب أعمال عنف تمييزية في وقت ومكان محددين. إن الاستنتاج الذي توصلت إليه Meta من أن هذه الصورة – التي تُظهر رجلًا عدوانيًا يطارد رجالًا مسلمين يفرون أمامه، وما صاحبها من تحديد الوقت والمكان وإضافة علامة الهاشتاج "EnoughIsEnough" – لا تنطوي على تهديد أو هدف، يجعل مصداقيتها محل شك. وقد تمت مشاركة هذا المحتوى في 4 أغسطس، أي في أوج أعمال الشغب التي استمرت لأسبوع كامل. وفي ذلك الوقت، كانت الظروف المحيطة كافية لتبرير الإزالة.
انتهكت الصورة التي تم إنشاؤها بواسطة الذكاء الاصطناعي، والتي تُظهر أربعة رجال مسلمين يطاردون طفلًا أشقر يبكي، قاعدة سياسة السلوك الذي يحض على الكراهية (التي كانت تُعرف سابقًا بسياسة الخطاب الذي يحض على الكراهية)، والتي تحظر مهاجمة الأشخاص استنادًا إلى السمات التي تتمتع بحقوق حماية، بما في ذلك توجيه اتهامات بارتكاب جرائم خطيرة. فسّرت Meta هذا المنشور على أنه عبارة متحفظة بتنسيق بصري من خلال الإشارة إلى "رجل مسلم أو رجال مسلمين معينين اتُّهموا خطأً بطعن الأطفال في ساوثبورت." قبل 7 يناير، كانت الإرشادات الداخلية لدى Meta تسمح بالعبارات المتحفظة التي لا تعمم الاتهام بارتكاب الجرائم على كامل أفراد المجموعة. ولا يوافق المجلس على تطبيق Meta لهذه القاعدة في هذه الحالة، مشيرًا إلى أن الصورة لا تُعد عبارة متحفظة، حيث إنها لا تُصوّر حادثة الطعن في ساوثبورت بأي شكل. يتضح أن الصورة من لندن (وليس ساوثبورت)، وتُظهر أربعة رجال (وليس رجلًا واحدًا) يطاردون طفلًا ذكرًا (وليس ثلاث فتيات صغيرات)، وطائرة تحلّق باتجاه ساعة بيج بن، في إحالة إلى هجمات 11 سبتمبر وتصوير المسلمين كتهديد لبريطانيا.
عند مراجعة هذه الحالات، لاحظ المجلس وجود إشكاليات تتعلق بمدى وضوح سياسة العنف والتحريض وسياسة السلوك الذي يحض على الكراهية، وذلك نتيجة للتفاوت بين الصيغة المستخدمة في النسخ الموجهة للجمهور والإرشادات الداخلية. أعرب المجلس أيضًا عن قلق بالغ بشأن قدرة Meta على الإشراف الدقيق على الصور التي تحض على الكراهية أو العنف. ونظرًا لفشل خبراء Meta في رصد الانتهاكات في كلتا الصورتين، المرجّح أنه قد تم إنشاؤهما بواسطة الذكاء الاصطناعي، فإن ذلك يشير إلى أن الإرشادات الحالية للمراجعين نمطية للغاية وقديمة وتتجاهل آليات عمل الصور.
وأخيرًا، يشير المجلس إلى أن Meta استعانت بجهات خارجية لتدقيق الحقائق لمراجعة بعض عناصر المحتوى التي تضمنت اسمًا زائفًا لمرتكب جريمة ساوثبورت خلال أحداث الشغب، حيث صنّفتها على أنها "زائفة" وتم تقليل معدلات ظهورها. وبما أن Meta استبدلت نظام تدقيق الحقائق التابع لجهات خارجية في الولايات المتحدة، يوصي المجلس بأن تدرس الشركة تجربة المنصات الأخرى التي تستخدم ملاحظات المجتمع وتبحث في مدى فعّاليتها.
قرار مجلس الإشراف
ألغى المجلس قرار Meta الأصلي بعدم إزالة المنشورات الثلاثة.
يوصي المجلس Meta أيضًا بما يلي:
- الإشارة بشكل صريح إلى حظر جميع التهديدات بارتكاب أعمال عنف شديد الخطورة ضد الأماكن والأشخاص.
- وضع معايير واضحة وقوية لتحديد ما قد يشكّل ادعاءات بارتكاب سلوك إجرامي خطير استنادًا إلى السمات التي تتمتع بحقوق حماية، عندما تأتي بتنسيق بصري. ويجب أن يتماشى ذلك مع المعايير الحالية للسلوك الذي يحض على الكراهية في صورة نص.
- مراجعة معايير تفعيل بروتوكول سياسة الأزمات، بما في ذلك تحديد معايير أساسية يكون تحققها كافيًا لتفعيل البروتوكول فورًا.
- بموجب بروتوكول سياسة الأزمات، يجب التأكد من تصنيف الانتهاكات المحتملة للسياسات، التي قد تؤدي إلى حدوث عنف محتمل ووشيك، لمراجعتها من قبل موظفين بشريين داخليين، على أن يقدموا إرشادات تستند إلى السياق ومحددة زمنيًا للمراجعين الذين يعملون على نطاق واسع.
- إجراء تقييمات مستمرة لفعالية "ملاحظات المجتمع"، مقارنةً بجهات تدقيق الحقائق الخارجية، خاصة في الحالات التي يؤدي فيها الانتشار السريع للمعلومات الزائفة إلى تهديدات على السلامة العامة.
* توفر ملخصات الحالة نظرة عامة على الحالات ولا تُشكّل سابقة قانونية.
القرار الكامل للمجلس بشأن الحالة
1. وصف الحالة ومعلومات أساسية عنها
راجع مجلس الإشراف ثلاث حالات تتعلق بمحتوى نُشر على فيسبوك من قبل مستخدمين مختلفين خلال أعمال الشغب التي اندلعت في المملكة المتحدة في الفترة ما بين 30 يوليو و7 أغسطس 2024.
جاءت أعمال الشغب في أعقاب هجوم بسكين وقع في ورشة لتعليم الرقص في ساوثبورت بتاريخ 29 يوليو، أسفر عن مقتل ثلاث فتيات صغيرات وإصابة عشرة آخرين. تم اعتقال أكسل روداكوبانا، وهو بريطاني يبلغ من العمر 17 عامًا، على الفور، وأدين لاحقًا بارتكاب الهجوم. ومع ذلك، انتشرت عبر الإنترنت معلومات مضللة وكاذبة عن هويته، بما في ذلك اسمًا زائفًا، زاعمة خطأً أنه مسلم وطالب لجوء وصل مؤخرًا إلى بريطانيا عبر قارب. وقد تمت مشاركة أحد هذه المنشورات أكثر من ستة ملايين مرة. على الرغم من صدور بيان من الشرطة عند ظهر يوم 30 يوليو يفند هذه الشائعات، اندلعت احتجاجات مناهضة للهجرة ومُعادية للمسلمين في 28 مدينة وبلدة، وتحولت العديد منها إلى أعمال شغب. وقد شاركت في هذه الاحتجاجات جماعات مُعادية للمسلمين والمهاجرين، وجذبت الآلاف من الأشخاص. شملت الاعتداءات مراكز اللاجئين والفنادق التي تؤوي المهاجرين، حيث تعرضت العديد من المباني إلى الهجوم أو أُضرمت النيران فيها، إلى جانب أعمال نهب واضطرابات أخرى. وقد أسفرت أعمال العنف عن إصابة العديد من الأشخاص، من بينهم أكثر من 100 من عناصر الشرطة. وفي الأول من أغسطس، أصدرت المحكمة أمرًا قضائيًا برفع السرية عن هوية مهاجم ساوثبورت، رغم أنه كان قاصرًا، في محاولة للحد من الفوضى، إلا أن ذلك لم يحقق نتائج فورية.
تمت مشاركة المنشور الأول الذي راجعه المجلس بعد يومين من القتل. وكان يدعم أعمال الشغب الجارية، داعيًا إلى تحطيم المساجد وحرق المباني التي يقيم فيها من وصفهم بـ"المهاجرين" و"الإرهابيين" و"الحثالة". أقرّ المنشور بأن أعمال الشغب تسببت في إلحاق أضرار بالممتلكات الخاصة وأصابت عناصر من الشرطة، لكنه اعتبر أن هذا العنف ضروري حتى تصغي السلطات وتوقف استقبال "كل الحثالة الذين يدخلون بريطانيا". وقد دعا المنشور الأشخاص المعارضين لأعمال الشغب إلى تذكّر مقتل "الفتيات الصغيرات"، مؤكدًا أنهن لن يكنّ "آخر الضحايا" إذا لم يتحرك عامة الجمهور. حصل المنشور على أكثر من 1000 مشاهدة وأقل من 50 تعليقًا.
تمّت مشاركة المنشور الثاني بعد ستة أيام من الهجوم، وهو إعادة نشر لمنشور آخر. ويحتوي على ما يبدو أنها صورة تم إنشاؤها بواسطة الذكاء الاصطناعي تُظهر رجلًا أبيضًا ضخمًا، غاضبًا وعدوانيًا، يرتدي قميصًا يحمل علم المملكة المتحدة، يطارد بعدوانية عدة رجال مسلمين أصغر حجمًا وهم يفرّون. وتضمن الشرح التوضيحي المصاحب للصورة عبارة: "ها نحن نعود مجددًا". ويتضمن النص الظاهر على الصورة وقتًا ومكانًا للتجمع في مظاهرة بمدينة نيوكاسل بتاريخ 10 أغسطس، إلى جانب علامة الهاشتاج "EnoughIsEnough". وقد حصل هذا المحتوى على أقل من 1000 مشاهدة.
تمت مشاركة المنشور الثالث بعد يومين من الهجوم، وهو أيضًا إعادة نشر لصورة أخرى يُرجح أنه تم إنشاؤها بواسطة الذكاء الاصطناعي. تُظهر الصورة أربعة رجال مسلمين ملتحين يرتدون الكورتا البيضاء (سترة طويلة)، يركضون أمام مبنى البرلمان في لندن وهم يلاحقون طفلًا صغيرًا أشقر الشعر يرتدي قميصًا بعلم المملكة المتحدة. أحد الرجال يحمل سكينًا. وتظهر طائرة تتجه نحو ساعة بيج بن، في إشارة ضمنية على ما يبدو إلى هجمات 11 سبتمبر 2001 في نيويورك. يتضمن الشرح التوضيحي عبارة "استيقظوا" وشعار حساب مؤثر على وسائل التواصل الاجتماعي معروف بخطابه المُعادي للمهاجرين في أوروبا، بما في ذلك نشر معلومات مضللة وكاذبة. وقد حصل هذا المحتوى على أكثر من 1000 مشاهدة وأقل من 50 تعليقًا.
أبلغ مستخدمو فيسبوك عن جميع المنشورات الثلاثة لانتهاكها إما سياسة السلوك الذي يحض على الكراهية (التي كان تُعرف سابقًا باسم سياسة الخطاب الذي يحض على الكراهية) أو سياسة العنف والتحريض. قامت أدوات Meta التلقائية بتقييم جميع المنشورات الثلاثة على أنها غير مخالفة، فتم الإبقاء عليها. وعندما تقدم المستخدمون بطعن إلى Meta على هذه القرارات، أكدت الأنظمة التلقائية للشركة قرارها بالإبقاء على المحتوى. اختيار المجلس لهذه الحالات مثّل أول مرة تُراجع فيها المنشورات الثلاثة من قبل أشخاص. بعد ذلك، غيّرت Meta قرارها بشأن المنشور الذي يحتوي على نص فقط، وقامت بحذفه لانتهاكه سياسة العنف والتحريض، بينما أبقت على قراراتها الأصلية بشأن المنشورين الآخرين.
في 7 يناير 2025، أعلنت Meta عن مراجعات لسياستها بشأن الخطاب الذي يحض على الكراهية وأعادت تسميتها إلى سياسة السلوك الذي يحض على الكراهية. وسيتم توضيح التغييرات ذات الصلة بهذه الحالات في القسم 3، وتحليلها في القسم 5. أوضح المجلس أن المحتوى يمكن للوصول إليه على منصات Meta بشكل مستمر، كما أن السياسات المحدَّثة تطبق على كل المحتوى الموجود على المنصة بغض النظر عن تاريخ نشره. لذا، يقيِّم المجلس تطبيق السياسات بحسب حالتها وقت النشر، وحسب تعديلها لاحقًا – حسب الاقتضاء – (راجع أيضًا النهج المتبع في حالة إنكار محرقة اليهود (الهولوكوست)).
2.المعلومات المقدَّمة من المستخدمين
لم يستجب أيّ من المستخدمين الذين نشروا المحتوى في هذه الحالات لدعوات تقديم إفادات إلى المجلس.
من جانبهم، قدّم المستخدمون الذين أبلغوا عن المنشورات إفادات إلى المجلس، أفادوا فيها بأن المنشورات كانت تحرض بوضوح على حضور احتجاجات عنصرية، أو تحث على العنف ضد المهاجرين والمسلمين، أو تشجع أنصار اليمين المتطرف على الاستمرار في أعمال الشغب. وذكر أحد المستخدمين أنه مهاجر وقد شعر بالتهديد من المنشور الذي قدّم بشأنه الطعن.
3. سياسات المحتوى والمعلومات المقدمة من Meta
1. سياسات المحتوى لدى Meta
سياسة العنف والتحريض
تنصّ مبادئ سياسة Meta بشأن العنف والتحريض على أن الشركة تقوم بإزالة " اللغة التي تحرِّض على العنف أو تمهِّد الطريق لحدوثه أو التهديدات الجدّية للسلامة العامة أو الشخصية"، بما في ذلك " الخطاب الذي ينطوي على عنف ويستهدف شخصًا أو مجموعة أشخاص على أساس سمة (سمات) تتمتع بحقوق حماية أو حالة الهجرة". كما توضّح أن Meta تضع في الاعتبار "اللغة والسياق من أجل التفرقة بين العبارات العفوية أو التي تهدف إلى تعزيز الوعي والمحتوى الذي يمثل تهديدًا جدّيًا لأمن الفرد أو المجتمع."
تنصّ السياسة على أن جميع الأفراد يتمتعون بالحماية من "التهديدات بالعنف التي قد تُفضي إلى الموت (والأشكال الأخرى من العنف شديد الخطورة)" وكذلك من "التهديدات بالعنف التي قد تُفضي إلى إصابة خطيرة (والأشكال الأخرى من العنف متوسط الخطورة)". وتشير الإرشادات الداخلية التي تقدمها شركة Meta للمشرفين إلى أن هذه الحماية تمتد أيضًا إلى الهجمات التي تستهدف أماكن قد يترتب على استهدافها وفاة أو إصابة خطيرة للأشخاص. بما في ذلك الدعوات إلى إحراق أو مهاجمة مكان ما. ولا تتطلب السياسة من المشرفين التحقق من وجود أشخاص داخل المبنى.
تعرّف السياسة التهديدات بالعنف على أنها "عبارات أو عناصر بصرية تمثل نوايا أو تطلعات أو دعوة للعنف ضد أحد الأهداف، ويمكن التعبير عن التهديدات بأنواع مختلفة من العبارات مثل عبارات إبداء النية والدعوات لاتخاذ إجراء والتأييد وعبارات الأمل والعبارات التحريضية والمشروطة."
سياسة السلوك الذي يحض على الكراهية ( التي كانت تُعرف سابقًا بسياسة الخطاب الذي يحض على الكراهية)
تعرِّف Meta "السلوك الذي يحض على الكراهية" بنفس الطريقة التي اتبعتها في تعريف الخطاب الذي يحض على الكراهية، وهو "الهجوم المباشر ضد الأشخاص" على أساس سمات تتمتع بحقوق حماية، بما في ذلك العرق والسلالة والانتماء الديني والأصل القومي. تواصل السياسة توفير الحماية "لللاجئين والمهاجرين سواء المؤقتين أو الدائمين وطالبي اللجوء" بموجب الفئة الأولى من السياسة، والتي تعتبرها Meta الفئة التي تشمل أشدّ أنواع الهجمات. مع ذلك، فإنهم لا يخضعون للحماية من الهجمات التي تندرج تحت الفئة الثانية، وذلك بهدف السماح "بالتعليق على سياسات الهجرة ونقدها". وبحسب مبادئ السياسة، يعود ذلك إلى أن الأشخاص في بعض الأحيان "ينادون بالإقصاء أو يستخدمون لغة مهينة في سياق مناقشة الموضوعات السياسة أو الدينية ... الهجرة." وتذكُر Meta صراحةً أن "سياساتها صُممت لتوفير مساحة لهذه الأنواع من الخطاب".
تحظر الفئة الأولى من السياسة الهجمات المباشرة التي تستهدف الأشخاص استنادًا إلى سمة تتمتع بحقوق حماية أو على أساس حالة الهجرة، والتي تتضمن "الادعاءات بوجود فساد أخلاقي أو سلوك إجرامي خطير"، مع إيراد المجرمين العنيفين ("الإرهابيين" أو "القتلة") كأمثلة.
قبل 7 يناير، كانت الإرشادات الداخلية التي تقدمها شركة Meta للمراجعين تسمح بنشر "العبارات السلوكية المتحفظة"، مع التمييز بينها وبين التعميمات المحظورة، والتي تشمل العبارات السلوكية غير المتحفظة، والاتهامات بالإجرام الجسيم. وتشير العبارات السلوكية المتحفظة إلى أفعال قام بها أفراد أو جماعات أو مشاركتهم في أحداث، مع الإشارة إلى السمة التي تتمتع بحقوق حماية أو حالة الهجرة. أما التعميمات المحظورة، فهي التي تنسب سمات متأصلة إلى جميع الأفراد الذين ينتمون إلى جماعة معينة أو معظمهم (مثل القول إنهم "قتلة" أو أنهم "يَقتِلون"). ومنذ 7 يناير، لم تعد إرشادات Meta للمراجعين تحظر العبارات السلوكية، بما في ذلك تلك التي تستهدف جماعة كاملة تتسم بسمة تتمتع بحقوق حماية أو تستند إلى حالة الهجرة. وهذا يعني أن القول بأن جماعة تتسم بسمة تتمتع بحقوق حماية "تقتل" لا يُعدّ انتهاكًا طالما ورد بصيغة عبارة سلوكية.
2. المعلومات المقدَّمة من Meta
المنشور الذي يحتوي على نص فقط
ألغت Meta قرارها الأصلي في هذه الحالة وقامت بإزالة المنشور بعد تقييمه على أنه ينتهك سياسة العنف والتحريض. وقد استند ذلك إلى أن دعوة الأشخاص إلى ارتكاب أعمال شغب و"تحطيم المساجد" و"إلحاق الضرر بالمباني" التي يقيم فيها من وصفهم بـ "المهاجرين" و"الإرهابيين" هي "عبارات تحرض على العنف ضد أماكن قد يترتب على استهدافها وفاة أو إصابة خطيرة".
منشور صورة الرجل العملاق
خلُصت Meta إلى أن هذا المنشور لم ينتهك سياسة العنف والتحريض. وعلى الرغم من أنه يتضمن دعوة للأشخاص للمشاركة في تجمع معين، ترى Meta أنه لا يحتوي على تهديد بالعنف ضد الأشخاص أو الممتلكات. وأكدت Meta أن سياستها، التي تستند إلى قيمة "حرية الرأي"، تهدف إلى حماية الخطاب السياسي المتعلق بالاحتجاجات. ولذلك، ورغم الاضطرابات الجارية المنتشرة على نطاق واسع، لا يشكّل المنشور انتهاكًا ما لم يتضمن تهديدًا أو هدفًا واضحًا.
منشور صورة الرجال المسلمين الأربعة
خلُصت Meta إلى أن هذا المنشور لا ينتهك سياسة السلوك الذي يحض على الكراهية التي كانت تُعرف سابقًا بسياسة الخطاب الذي يحض على الكراهية). بينما يُعد التعميم، مثل مهاجمة جميع المسلمين أو معظمهم واتهامهم بكونهم مجرمين عنيفين انتهاكًا للسياسة، فإن "الإشارة إلى أشخاص مسلمين محددين واتهامهم بالعنف" لا تُعتبر كذلك. وقد فسّرت Meta الصورة على أنها تشير إلى "رجل مسلم أو رجال مسلمين معينين اتُّهموا خطأً بطعن الأطفال في ساوثبورت"، وذلك في ظل انتشار معلومات زائفة في ذلك الوقت.
تدابير التعامل مع الأزمة
أوضحت Meta في ردّها على أسئلة المجلس أنها قامت بتفعيل بروتوكول سياسة الأزمات في أغسطس، وصنّفت المملكة المتحدة بأكملها على أنها أحد المواقع عالية الخطورة مؤقتًا خلال الفترة من 6 إلى 20 أغسطس، وذلك بعد تفعيل البروتوكول. يُعد تصنيف المواقع عالية الخطورة مؤقتًا آلية تتيح لشركة Meta تطبيق تدابير إضافية للسلامة، مثل فرض قيود إضافية على المحتوى أو المراقبة الاستباقية، بهدف منع التحريض على العنف في المواقع التي تُصنّف على أنها عالية الخطورة نتيجة لوقوع أحداث على أرض الواقع. وخلال تلك الفترة، أزالت Meta أي منشورات تدعو إلى حمل أسلحة إلى أي موقع داخل المملكة المتحدة أو تدعو إلى اقتحام مواقع عالية الخطورة بالقوة. ولم تُنشئ الشركة مركزًا للعمليات والمنتجات والنزاهة، وهو ما تصفه Meta بأنه "إجراء يجمع فرقًا مختلفة وخبراء في المجالات ذات الصلة وإمكانات متنوعة من مختلف أنحاء الشركة (...) بهدف الاستجابة الفورية للمشكلات أو الاتجاهات المحتملة".
تدقيق الحقائق بواسطة جهات خارجية
اعتمدت Meta على جهات خارجية لتدقيق الحقائق عند مراجعة المحتوى وتقييم دقته خلال الفترة التي شهدت أعمال الشغب. وبالنسبة إلى "عناصر المحتوى المتعددة ... التي تضمنت اسمًا زائفًا لمرتكب جريمة ساوثبورت"، والتي تم تصنيفها بأنها عناصر محتوى "زائفة"، لم تحذف Meta المحتوى من المنصة لكنها أرفقت به تسميات توضيحية. بالإضافة إلى ذلك، أزالت الشركة أيضًا المحتوى من التوصيات وقامت بالحد من ظهوره في الموجز لدى المستخدمين الذين يتابعون الحساب المعني. وذكرت Meta أنها قامت بالحد من انتشار هذا النوع من المحتوى "في غضون ساعات من ظهوره على المنصة". كما أنشأت Meta مجموعة عمل داخلية تضم أعضاء من فرق السياسات والعمليات والتواصل مع جهات إنفاذ القانون لمتابعة الوضع والاستجابة له.
طرح مجلس الإشراف 13 سؤالًا على شركة Meta حول التدابير التي اتخذتها للتعامل مع الأزمات خلال اندلاع أعمال الشغب في المملكة المتحدة، بما في ذلك دور الجهات الخارجية لتدقيق الحقائق، وتفاصيل إمكانات أدوات تصنيف الخطاب الذي يحض على الكراهية، وكيف أثّر سياق أعمال الشغب في تحليل Meta للمحتوى، وما إذا كان قد تم الحد من ظهور أي من المنشورات، والمخاطر التي تهدد حرية التعبير والوصول إلى المعلومات نتيجة الإفراط في إنفاذ السياسات. وقد أجابت Meta عن هذه الأسئلة بالكامل.
4. التعليقات العامة
تلقى مجلس الإشراف تسع تعليقات عامة استوفت شروط إرسال التعليقات. تم تقديم خمسة من هذه التعليقات من أوروبا، وثلاثة من الولايات المتحدة وكندا، وتعليق من الشرق الأوسط وشمال أفريقيا. ونظرًا لانتهاء فترة تلقي التعليقات العامة قبل 7 يناير 2025، لم يتناول أيٌ من التعليقات تغييرات السياسة التي أعلنت عنها Meta في ذلك التاريخ. وللاطلاع على التعليقات العامة المقدَّمة التي وافق أصحابها على نشرها، انقر هنا.
تناولت التعليقات المقدّمة الموضوعات التالية: دور وسائل التواصل الاجتماعي في أعمال الشغب التي وقعت في المملكة المتحدة عام 2024، بما في ذلك دورها في نشر المعلومات المضللة وتنظيم وتنسيق أعمال الشغب؛ والروابط بين الخطاب المُعادي للمهاجرين والمسلمين عبر الإنترنت وأعمال العنف؛ واستخدام الصور في الخطاب الذي يحض على الكراهية وتجريد الأشخاص من إنسانيتهم؛ والمخاطر التي تهدد حرية التعبير نتيجة الإفراط في إنفاذ السياسات؛ والتدابير الأخرى للإشراف على المحتوى بخلاف إزالته.
5. تحليل مجلس الإشراف
اختار المجلس هذه الحالات للوقوف على كيفية امتثال Meta لمبدأ حرية التعبير في النقاشات المتعلقة بالهجرة، مع الحفاظ في الوقت ذاته على حقوق الإنسان للمهاجرين والأقليات الدينية في سياق الأزمات. وتندرج هذه الحالة ضمن الأولويات الإستراتيجية للمجلس وتحديدًا في حالات الأزمات والنزاعات والخطاب الذي يحض على الكراهية ضد الفئات المهمشة.
قام المجلس بتحليل قرارات Meta في هذه الحالات في ضوء سياسات المحتوى التي تتبعها الشركة، وقيمها، ومسؤولياتها تجاه حقوق الإنسان. وقام المجلس أيضًا بتقييم تأثير هذه الحالات على نهج Meta الأشمل لإدارة المحتوى.
5.1 الامتثال لسياسات المحتوى لدى شركة Meta
1. قواعد المحتوى
المنشور الذي يحتوي على نص فقط
يرى المجلس أن هذا المنشور ينتهك سياسة Meta بشأن العنف والتحريض، والتي تحظر التهديدات الجدّية بارتكاب أعمال عنف شديد الخطورة ضد هدف معين، وكذلك التهديدات بالعنف ضد الأفراد أو الجماعات استنادًا إلى الدين باعتباره سمة تتمتع بحقوق حماية، أو استنادًا إلى حالة الهجرة.
وبينما قد يعمد بعض الأشخاص في كثير من الأحيان إلى نشر لغة تنطوي على عنف أو تهديد على الإنترنت بقصد المبالغة أو بطريقة غير جادة وتهكمية، إلا أن اللغة والسياق هما ما يميز العبارات العفوية عن التهديدات الجدّية التي تمس السلامة العامة أو الشخصية. يتضمن هذا المنشور تشجيعًا صريحًا على ارتكاب أعمال شغب، وتحريضًا على "تحطيم المساجد" و"إلحاق الضرر بالمباني" التي يقيم فيها من وصفهم بـ "المهاجرين" و"الإرهابيين". ولذلك، يشكّل هذا المنشور انتهاكًا واضحًا لسياسة Meta بشأن العنف والتحريض من ناحيتين: أولًا، التهديد العام والتحريض على ارتكاب أعمال عنف شديد الخطورة ضد الأشخاص والممتلكات؛ وثانيًا، استهداف الأشخاص استنادًا إلى دينهم ووضعهم كمهاجرين. لا يمكن تفسير هذا المنشور بأي حال من الأحوال على أنه عبارة عفوية أو غير جادة. وقد نُشر هذا المنشور في 31 يوليو، في وقت كانت تتصاعد فيه أعمال العنف في أنحاء المملكة المتحدة، وذلك بعد يوم واحد من إلقاء مجموعة أشخاص الطوب وزجاجات المولوتوف على مسجد، وإضرام النار في سيارة شرطة، مما أسفر عن إصابة ثمانية من عناصر الشرطة. وقد تكررت أعمال عنف مشابهة على مستوى البلاد في الأسابيع التي أعقبت ذلك.
منشور صورة الرجل العملاق
يرى المجلس أن هذا المنشور ينتهك سياسة Meta بشأن العنف والتحريض، والتي تحظر التهديدات بالعنف ضد الأفراد أو الجماعات استنادًا إلى الدين باعتباره سمة تتمتع بحقوق حماية، أو استنادًا إلى حالة الهجرة.
يلاحظ المجلس أنه لم تكن هناك أي كلمات مكتوبة في هذا المنشور تدعو الأشخاص بشكل مباشر وصريح إلى ارتكاب أعمال عنف. ومع ذلك، يوضح هذا المحتوى كيف أن الجمع بين الصور والإشارات النصية غير المباشرة للعنف يمكن أن يعتبر أيضًا شكلًا واضحًا من أشكال التحريض.
حدد النص الظاهر على الصورة تاريخ ووقت ومكان تجمّع الأشخاص، عند نصب تذكاري معين في نيوكاسل يوم 10 أغسطس. نُشر هذا المحتوى بعد اندلاع أعمال شغب عنيفة لعدة أيام عدة استهدفت المسلمين والمهاجرين في أنحاء البلاد، حيث هاجم الأشخاص بالفعل، من بين أمور أخرى، فندقًا يأوي طالبي لجوء، وتم إحراق مكتبة ومركزًا مجتمعيًا، وتم رشق عناصر الشرطة بزجاجات وعلب معدنية. يعتبر الجمع بين الشرح التوضيحي "ها نحن نعود مجددًا" مع صورة رجل أبيض ضخم يطارد بقوة رجالًا أصغر حجمًا ذوي بشرة بنية يرتدون لباسًا إسلاميًا، دعوة واضحة لمواصلة تلك الأعمال المستمرة من العنف والتمييز والترهيب في وقت ومكان محددين. في حين قد تكون عبارة "Enough Is Enough" في حد ذاتها، بمعزل عن السياق، تصريحًا سياسيًا غير عنيف حول الهجرة، فقد تم استخدامها كعلامة هاشتاج لتنظيم أعمال شغب سابقة وحشد الأشخاص لهذا الغرض.
يرى المجلس أن مجموع عناصر هذا المنشور يوضّح بجلاء أنه ينتهك سياسة المحتوى. إن ما خلُصت إليه Meta من أن الصورة لا تحتوي على هدف أو تهديد هو استنتاج يتسم بعدم المعقولية، ويثير تساؤلات بشأن سبب تأخّر الشركة في تفعيل بروتوكول سياسة الأزمات. في الوقت الذي تمت فيها مشاركة هذا المنشور، كان هناك ما يكفي من السياق بشأن كيفية انتشار المعلومات المتعلقة بأعمال الشغب عبر الإنترنت، مما كان ينبغي أن يضمن تحديد العناصر المحرضة على العنف في هذا المنشور لو تم إعطاء الأولوية لمراجعة المحتوى من هذا النوع بواسطة مراجعين بشريين وتوفير إرشادات تفسيرية مناسبة للمراجعين.
منشور صورة الرجال المسلمين الأربعة
يرى المجلس أن محتوى الحالة الثالثة ينتهك سياسة Meta بشأن السلوك الذي يحض على الكراهية والتي تحظر الادعاءات بارتكاب سلوك إجرامي خطير ضد مجموعة لديها سمات تتمتع بحقوق حماية. ولم تسفر تغييرات السياسة الصادرة في 7 يناير عن تغيير هذا التقييم.
في هذه الحالة، توحي صورة الرجال المسلمين وهم يطاردون طفلًا صغيرًا أشقر الشعر يبكي، إلى جانب الصور المرتبطة بالإرهاب، بتعميم يشير إلى أن المسلمين مجرمون عنيفون وإرهابيون، ويُشكلون تهديدًا للشعب البريطاني وللأطفال على وجه الخصوص.
تمثل هذه الصورة مثالًا واضحًا للغاية على استخدام صورة نمطية تُجرد الأشخاص من إنسانيتهم بهدف استغلال المشاعر المُعادية للمهاجرين من خلال تأجيج الصور النمطية المعادية للمسلمين. وبمجموع عناصره، يعمل هذا المنشور على تعميم فكرة أن المسلمين يشكلون تهديدًا جماعيًا للأمن القومي، ويصوّرهم على أنهم مصدر خطر، وينسب إليهم زورًا صفات الإجرام والعنف كجماعة محددة بدينها. من خلال الربط البصري بين المسلمين وبين أحد أشهر الأحداث الإرهابية في التاريخ الحديث، توحي الصورة زورًا بأن جميع المسلمين إرهابيون ويشكلون خطرًا على بريطانيا.
لا يتفق المجلس مع تقييم Meta القائل بأن الصورة كانت "عبارة سلوكية متحفظة"، أي أن تصوير شخصًا مسلمًا يحمل سكينًا كان يُشير إلى الجاني المزعوم لهجوم ساوثبورت، وليس إلى المسلمين بوجه عام. ويؤكد المجلس أن المحتوى، رغم نشره في سياق الاضطرابات العامة عقب عملية الطعن في ساوثبورت، ومحاولته استغلال المشاعر المتصاعدة حينها، فإنه لا يعرض تمثيلًا بصريًا لتلك الأحداث. في وقت نشر الصورة، كان من المعروف أن الجاني في هجوم ساوثبورت كان شخصًا منفردًا وليس مسلمًا، وكانت الضحايا ثلاث فتيات صغيرات وليس طفلًا صغيرًا، ولم تكن للهجمات أي صلة بلندن أو هجمات 11 سبتمبر الإرهابية. إن الاستنتاج بأن تصوير الرجال المسلمين الأربعة قد يكون إشارة إلى ذلك المهاجم الفردي يُعد استنتاجًا خاطئًا. علاوة على ذلك، وحتى إن كانت الصورة تصور مسلمًا واحدًا، فإن استخدامها لتبرير الخطاب الذي يحض على الكراهية عبر معلومات مضللة مدفوعة بتحامل معادٍ للمسلمين يظل منطقًا غريبًا.
2. إجراء الإنفاذ
تثير الحالتان اللتان اشتملتا على صور تنتهك سياسات Meta بشأن العنف والتحريض والسلوك الذي يحض على الكراهية، مخاوف بشأن كيفية تعامل Meta مع المحتوى الضار عندما يكون في شكل صور لا نصوص. سبق للمجلس أن أثار مخاوف مماثلة في حالات منشور باللغة البولندية يستهدف الأشخاص المتحولين جنسيًا وعنصرية كوكب القرود وفيديو مجمّع يتضمن ميمات بغيضة وكارتون مؤامرة وسائل الإعلام وكارتون كنين. وتزداد حدة هذا القلق في هذه الحالات، إذ توضح كيف أن معوقات إنتاج محتوى بصري مُقنع يتضمن خطابًا يحض على الكراهية أو تحريض على العنف أصبحت تتلاشى بفعل تطور أدوات الذكاء الاصطناعي الجديدة. ورغم أن إنشاء الصورة تلقائيًا لا يُغير من كونها تشكّل انتهاكًا من عدمه، فقد تؤدي أدوات الذكاء الاصطناعي الحديثة إلى زيادة كبيرة في انتشار هذا النوع من المحتوى. ويفرض ذلك على Meta اتخاذ ما يلزم لضمان تدريب أدواتها التلقائية بشكل أفضل لاكتشاف الانتهاكات في الصور، وأن تعطي أولوية للمراجعة البشرية إلى أن تصل المراجعة التلقائية إلى درجة أعلى من الموثوقية.
يُعرب المجلس عن قلقه من تأخر Meta في تفعيل بروتوكول سياسة الأزمات، وهو عبارة عن آلية أنشأتها الشركة استجابة لتوصيات سابقة من المجلس. استغرقت الشركة قرابة أسبوع كامل قبل تصنيف المملكة المتحدة كموقع عالي الخطورة مؤقتًا. وضمن إطار هذا الإجراء، فرضت Meta حظرًا مؤقتًا على الدعوات لحمل أسلحة أو اقتحام مواقع محددة بالقوة.
يرى المجلس أن تفعيل بروتوكول سياسة الأزمات كان سيُحقق أثرًا أكبر لو تم تفعيله بسرعة، في الساعات والأيام الحرجة التي أعقبت الهجوم، حينما انتشرت معلومات زائفة عن المهاجم سريعًا على الإنترنت، واستُخدمت وسائل التواصل الاجتماعي لتنظيم أعمال عنف غذتها مشاعر عنصرية ومُعادية للمهاجرين والمسلمين.
كان من الممكن لبعض التدخلات الإضافية أن تسهم في تسريع وتيرة الإشراف الاستباقي وتحسين دقته فيما يتعلق بالمحتوى المرتبط بأعمال الشغب، مما قد يعطل تفاقم المحتوى الضار ويقلل بشكل محتمل من خطر وقوع ضرر إضافي. وكان من الممكن استخدام أدوات تشغيلية لتحديد ومراجعة المحتوى الذي يُحتمل أن يشكّل انتهاكًا للسياسات، وإجراء مسح استباقي للمنصات بحثًا عن كلمات أساسية أو علامات هاشتاج معينة، وتكليف فرق إقليمية متخصصة. كان بإمكان هذه الفرق أن تقدم سياقًا إضافيًا وإرشادات للمراجعين العاملين على نطاق واسع في الإشراف على الخطاب الذي يحض على الكراهية والتحريض، بما في ذلك عندما يأتي بتنسيق بصري.
يشدد المجلس على ضرورة اتخاذ قرارات تفعيل تدابير التعامل مع الأزمات في أسرع وقت ممكن. ولتحقيق ذلك، يتعين على الشركة تحديد معايير رئيسية، يؤدي تحقق أي منها أو اجتماعها وفق تركيبات محددة سلفًا إلى التفعيل الفوري لبروتوكول سياسة الأزمات. علاوة على ذلك، ينبغي تكرار هذا التقييم طوال فترة الأزمة لضمان أن التدابير المتبعة لا تزال مناسبة وفعّالة وملائمة للمخاطر المتغيرة.
5.2 الامتثال لمسؤوليات Meta تجاه حقوق الإنسان
يرى المجلس أن إزالة المنشورات الثلاثة حسبما يقتضي التفسير الصحيح لسياسات المحتوى لدى Meta، تتماشى أيضًا مع مسؤوليات Meta تجاه حقوق الإنسان.
حرية التعبير (المادة 19 من العهد الدولي الخاص بالحقوق المدنية والسياسية)
توفر المادة 19 من العهد الدولي الخاص بالحقوق المدنية والسياسية حماية واسعة لحرية التعبير، بما في ذلك ما يتعلق بالسياسات والشئون العامة وحقوق الإنسان ( التعليق العام رقم 34، الفقرتان 11-12). وعند فرض الدولة قيودًا على حرية التعبير، يجب أن تفي تلك القيود بمتطلبات الشرعية والهدف المشروع والضرورة والتناسب (المادة 19، الفقرة 3، العهد الدولي الخاص بالحقوق المدنية والسياسية). وتتم الإشارة إلى هذه المتطلبات غالبًا باسم "الاختبار الثلاثي".
يعتمد المجلس هذا الإطار لتفسير مسؤوليات Meta تجاه حقوق الإنسان تماشيًا مع مبادئ الأمم المتحدة التوجيهية بشأن الأعمال التجارية وحقوق الإنسان، والتي التزمت بها Meta نفسها في سياسة حقوق الإنسان الخاصة بالشركة. ويطبق المجلس هذا النهج على قراراته بشأن عناصر المحتوى الفردية الخاضعة للمراجعة، وما تكشفه هذه القرارات عن نهج Meta الأوسع في إدارة المحتوى. بموجب المبدأ رقم 13 من مبادئ الأمم المتحدة التوجيهية بشأن الأعمال التجارية وحقوق الإنسان، ينبغي للشركات أن "تتجنب التسبب في الآثار الضارة بحقوق الإنسان أو المساهمة فيها من خلال الأنشطة التي تضطلع بها" وأن "تسعى إلى منع الآثار الضارة بحقوق الإنسان التي ترتبط ارتباطًا مباشرًا بعملياتها أو منتجاتها أو خدماتها." وكما ذكر مقرر الأمم المتحدة الخاص المعني بحرية التعبير، فإنه وعلى الرغم من أن "الشركات لا تتحمل التزامات الحكومات، لكن تأثيرها من النوع الذي يتطلب منها تقييم نفس النوع من الأسئلة المتعلقة بحماية حقوق مستخدميها في حرية التعبير،" (A/74/486، الفقرة 41). وفي الوقت نفسه، وفي حالة الاختلاف بين قواعد الشركات والمعايير الدولية، ينبغي للشركات أن تقدم مسبقًا تفسيرًا معللاً للاختلاف في السياسة (المرجع نفسه، الفقرة 48).
1. الشرعية (وضوح القواعد وسهولة الوصول إليها)
يتطلب مبدأ الشرعية أن تكون القواعد التي تقيِّد حرية التعبير واضحة ويسهُل الوصول إليها، وأن تُصاغ بدقة كافية لكي يتسنى للفرد ضبط سلوكه وفقًا لها (التعليق العام رقم 34، الفقرة 25). علاوةً على ذلك، فإن هذه القواعد "لا يجوز أن تمنح الأشخاص المسؤولين عن تنفيذها سلطة تقديرية مطلقة في تقييد حرية التعبير"، ويجب أن "تنص على توجيهات وافية للمكلفين بتنفيذها لتمكينهم من التحقق على النحو المناسب من أنواع التعبير التي تخضع للتقييد وتلك التي لا تخضع لهذا التقييد وتلك التي لا تخضع للتقييد،" (المرجع نفسه). وقد ذَكر مقرر الأمم المتحدة الخاص المعني بحرية التعبير أنه عند تطبيق هذه القواعد على حوكمة الجهات الفاعلة الخاصة للخطاب على الإنترنت، ينبغي أن تكون هذه القواعد واضحة ومحددة (A/HRC/38/35، الفقرة 46). ينبغي أن يتمكن الأشخاص الذين يستخدمون منصات Meta من الوصول إلى هذه القواعد وفهمها، كما ينبغي أن تتوفر لمراجعي المحتوى توجيهات واضحة فيما يتعلق بإنفاذها.
يرى المجلس أنه لا يتضح للمستخدمين أن سياسة Meta بشأن العنف والتحريض تحظر التهديدات التي تستهدف الأماكن كما هو الحال مع التهديدات التي تستهدف الأشخاص، مشيرًا إلى أن العديد من الأماكن خلال أعمال الشغب في المملكة المتحدة استُهدفت بسبب ارتباطها بالمسلمين وطالبي اللجوء والمهاجرين.
يرى المجلس أن الحظر الوارد في سياسة السلوك الذي يحض على الكراهية والمتعلق بالادعاءات بشأن "مرتكبو جرائم العنف (بما في ذلك، على سبيل المثال لا الحصر: الإرهابيون أو القتلة)" واضح بدرجة كافية عند تطبيقه على منشور "صورة الرجال المسلمين الأربعة". ومع ذلك، فإن محاولة Meta التمييز بين التعميمات المحظورة المتعلقة بالصفات المتأصلة لمجموعة بأكملها، والعبارات السلوكية المسموح بها التي قد لا تنطبق على المجموعة بأكملها (مثل وصف مجموعة بأنهم "إرهابيون" أو "قتلة" مقابل القول إنهم "يقتلون") تؤدي إلى قدر كبير من الالتباس. قد يشكّل كل منهما تعميمًا يجرد الأشخاص من إنسانيتهم، استنادًا إلى السياق، وقد يؤدي هذا التمييز في الإنفاذ إلى خلق انطباع بالعشوائية.
2. الهدف المشروع
ينبغي أن تستند أي قيود مفروضة على حرية التعبير إلى أحد الأهداف المشروعة الواردة في العهد الدولي الخاص بالحقوق المدنية والسياسية، والتي من بينها "حماية حقوق الآخرين" و"حماية النظام العام" (المادة 19، الفقرة 3، العهد الدولي الخاص بالحقوق المدنية والسياسية). سبق أن قرر مجلس الإشراف أن سياسة Meta بشأن العنف والتحريض تسعى إلى تحقيق هدف مشروع يتمثل في حماية النظام العام وحقوق الآخرين، بما في ذلك على وجه الخصوص الحق في الحياة (راجع حالتي اعتراض امرأة إيرانية في الشارع و"مكتب تيجراي لشؤون الاتصالات). وقد سبق أن قرر المجلس أن سياسة Meta بشأن الخطاب الذي يحض على الكراهية (التي كان تُعرف سابقًا باسم سياسة السلوك الذي يحض على الكراهية) تهدف إلى حماية الحق في المساواة وعدم التمييز، وهو هدف مشروع تقره المعايير الدولية لحقوق الإنسان (راجع، على سبيل المثال، كارتون كنين والبرنامج التلقائي لميانمار). ويظل هذا هو الهدف المشروع لسياسة السلوك الذي يحض على الكراهية.
3. الضرورة والتناسب
بموجب المادة 19(3) من العهد الدولي الخاص بالحقوق المدنية والسياسية، فإن الضرورة والتناسب يتطلبان أن تكون القيود المفروضة على حرية التعبير "مناسبة لتحقيق وظيفة الحماية المنوطة بها، ويجب أن تكون أقل الوسائل تدخلاً مقارنةً بغيرها من الوسائل التي يمكن أن تحقق النتيجة المنشودة؛ ويجب أن تكون متناسبة مع المصلحة التي ستحميها" (التعليق العام رقم 34، الفقرة 34). أشار مقرر الأمم المتحدة الخاص المعني بحرية التعبير أيضًا إلى أنه على وسائل التواصل الاجتماعي، "يمثل حجم وتعقيد التعامل مع التعبير الذي يحض على الكراهية تحديات طويلة الأجل" (A/HRC/38/35، الفقرة 28). مع هذا، وفقًا للمقرر الخاص، ينبغي على الشركات "إثبات ضرورة وتناسب أي إجراءات متعلقة بالمحتوى (مثل إزالة المحتوى أو تعليق الحسابات)." تكون الشركات مُلزمة "بتقييم نفس النوع من الأسئلة المتعلقة بحقوق مستخدميها في حرية التعبير" (المرجع نفسه، الفقرة 41).
تزداد قيمة حرية التعبير بشكل خاص عند مناقشة القضايا التي تحظى باهتمام عام، ويحظى الحق في حرية التعبير بأهمية بالغة عند تقييم الخطاب السياسي والتعليق على الشؤون العامة. ويحق للأشخاص اعتناق الأفكار والآراء بجميع أنواعها وتلقيها ونشرها، بما في ذلك تلك التي قد تكون مثيرة للجدل أو مسيئة للغاية (التعليق العام رقم 34، الفقرة 11). وفي قرار تعليقات السياسيين بشأن التغييرات الديموغرافية، تبيَّن للمجلس أنه على الرغم من كون الرأي مثيرًا للجدل، فإن التعبير عنه في قضية الهجرة لم يتضمن أي لغة مباشرة تُجرد الفئات الضعيفة من إنسانيتها أو تُحرض على الكراهية، ولم يتضمن كذلك أي دعوة إلى العنف. ومع ذلك، عندما تكون مثل هذه الشروط مستوفاة، فقد يُبرر ذلك إزالة المحتوى (راجع أيضًا قرار "انتقاد سياسات الهجرة والمهاجرين في الاتحاد الأوروبي").
يرى المجلس أن المنشورات الثلاثة جميعها كان يجب إزالتها بموجب سياسات Meta، وأن إزالتها كانت ضرورية ومتناسبة بالنظر إلى العوامل الستة الموضحة في خطة عمل الرباط (خطة عمل الرباط، المفوضية السامية للأمم المتحدة لحقوق الإنسان، A/HRC/22/17/Add.4، 2013). وتشمل هذه العوامل: السياق الاجتماعي والسياسي وحالة المتحدث ونية تحريض الأشخاص على اتخاذ إجراءات ضد مجموعة مستهدفة ومحتوى وشكل الخطاب ومدى انتشاره واحتمالية وقوع الضرر، ومدى كونه وشيكًا.
- السياق: اتسمت أعمال الشغب الجارية حينها بتصاعد العنف الذي استهدف مجموعات محددة. وقد غذّت هذه الأعمال معلومات مضللة انتشرت على وسائل التواصل الاجتماعي، وغالبًا ما تم تضخيمها من قبل حسابات مؤثرة (راجع أيضًا التعليق العام الصادر عن معهد الحوار الاستراتيجي، PC-30832) وارتبطت بعض هذه الحسابات بجماعات وأفراد من اليمين المتطرف. وقد استغلوا ارتفاع النشاط عبر الإنترنت لتنظيم احتجاجات مُعادية للمسلمين خارج المسجد في ساوثبورت. وتحولت تلك الاحتجاجات إلى أعمال عنف، كما هو الحال مع العديد من التظاهرات اللاحقة، بما في ذلك تلك التي وقعت في سندرلاند وروذرهام ومانشستر.
- المحتوى والشكل: كما ورد أعلاه، فإن محتوى المنشورات الثلاثة، سواء كانت بتنسيق نصي أو بصري، يُفهم بوضوح على أنه يشجّع الأشخاص على الانضمام إلى أعمال الشغب، إما بشكل مباشر، أو من خلال استخدام لغة تُجرد المسلمين والمهاجرين من إنسانيتهم وتحض على الكراهية في ظل أحداث شغب عنيفة.
- حالة المتحدث والنية ومدى الانتشار: في ظل حالة الاضطراب العام الحاد، حتى منشورات الأشخاص غير المؤثرين التي كانت تحرض على أعمال عنف محددة كانت قادرة على الانتشار السريع على نطاق واسع والتسبب في وقوع ضرر جسيم. تضمّن المنشور الثالث، الذي يُظهر أربعة رجال مسلمين يطاردون طفلًا صغيرًا، أيضًا شعار حساب بارز على وسائل التواصل الاجتماعي. في ديسمبر 2024، نشرت إذاعة أوروبا الحرة تحقيقًا وثّق نمط هذا الحساب في نشر معلومات زائفة تستهدف المهاجرين، والإجراءات التي اتخذها الحساب لإخفاء هوية مالكه.
- احتمالية ووشاكة حدوث العنف والتمييز والعداوة: خلال هذه الفترة، ونظرًا لاحتواء كل منشور على دعوة مباشرة إلى العنف ضد المسلمين والمهاجرين أو تشجيعه لذلك، فقد كانت احتمالية أن يؤدي منشور واحد يحض على الكراهية إلى مزيد من الاضطرابات والعنف كبيرة ونظرًا للسياق الذي نُشرت فيه هذه المنشورات، فإن الإجراءات الأقل تقييدًا لم تكن كافية لمعالجة خطر العنف الوشيك والمرجّح، مما يجعل إزالة هذا المحتوى بموجب سياسات Meta أمرًا ضروريًا ومتناسبًا مع الهدف المشروع.
إنفاذ السياسات
يتمثل مصدر القلق في أنه حتى بعد اختيار المجلس لهذه الحالات، استمرت Meta في اعتبار منشورين يتضمنان صورًا تم إنشاؤها بواسطة الذكاء الاصطناعي غير مخالفين. يبدو أن المشرفين (وحتى فرق السياسات لدى Meta) يتبعون قائمة مراجعة تُفسّر بطريقة نمطية للغاية، حيث يتم الاعتماد على وجود عناصر محددة بمفردها لتحديد وجود الانتهاك. ويبدو أن ذلك يأتي في إطار السعي لتحقيق اتساق في إنفاذ السياسات. لكن هذه التوجيهات، التي صيغت في الأساس للتعامل مع المنشورات النصية، تتجاهل كيفية عمل الصور المرئية، مما يؤدي إلى حالات عدم اتساق في الإنفاذ. وهذا يكشف عن تحدٍّ خاص تواجهه Meta فيما يتعلق بقواعد المحتوى الذي يزعم وجود سلوك إجرامي متأصل ضد مجموعة لديها سمات تتمتع بحقوق حماية، كما يتضح من هذه الحالات. وتبدو الإرشادات الحالية المقدمة للمراجعين قديمة بشكل خاص، نظرًا للتحول الكبير في محتوى وسائل التواصل الاجتماعي نحو الصور ومقاطع الفيديو.
وبينما يمكن اعتبار الاتساق مقياسًا مهمًا لجودة الإشراف الذي تمارسه Meta، فإنه لا ينبغي أن يأتي على حساب مراعاة السياق بدقة، لا سيما في التصوير البصري للخطاب الذي يحض على الكراهية والتحريض. في الأزمات المتسارعة، مثل أعمال الشغب التي شهدتها المملكة المتحدة، فإن التهديد الحقيقي بخسارة الأرواح والممتلكات يشكّل تكلفة باهظة للغاية. تتطلب الدقة مراعاة السياق واستخدام الحكم السليم. وكما نوقش أعلاه، من المهم بشكل خاص أن يتم تفعيل بروتوكول سياسة الأزمات لدى Meta بسرعة، وأن يتلقى المراجعون إرشادات خاصة بالسياق لضمان إنفاذ السياسات بدقة.
يشير المجلس إلى أن المعلومات غير المؤكدة والزائفة التي تُترك دون تفنيد أو تصحيح قد تكون خطيرة بشكل خاص في سياقات مثل أعمال الشغب التي شهدتها المملكة المتحدة. وقد أوضح البروفيسور مارك أوين جونز (المتخصص في المعلومات المضللة والكاذبة) في سلسلة منشورات على منصة X بتاريخ 30 يوليو، أن هناك ما لا يقل عن 27 مليون مشاهدة لمنشورات على X تُصرّح أو تُلمّح بأن المهاجم مسلم أو مهاجر أو لاجئ أو أجنبي. كما أشار إلى وجود أكثر من 13 مليون مشاهدة لمنشورات تندد بمثل هذه التكهنات.
تكتسب سياسات Meta بشأن المعلومات المضللة أهمية خاصة في هذا السياق، وخصوصًا قاعدتها المتعلقة بحذف " المعلومات المضللة أو الشائعات التي لا يمكن التحقق من صحتها التي قرر الشركاء ذوو الخبرة أنها ستسهم على الأرجح في مخاطر تعرض الأشخاص لأعمال عنف أو ضرر بدني وشيك" (راجع قرار الجرائم المزعومة في ريا كوبو). أما في حالة المعلومات المضللة التي لا تُشكّل خطرًا وشيكًا بالعنف أو الضرر البدني، فقد تكون هناك حاجة إلى إجراءات أقل تدخلاً من إزالة المحتوى، مثل تقديم معلومات إضافية لتصحيح الأكاذيب. أبلغت Meta المجلس بأن الجهات الخارجية لتدقيق الحقائق راجعت "عدد من عناصر المحتوى" تضمنت "الاسم الزائف لمنفذ هجوم ساوثبورت"، فور بدء انتشارها، وصنّفتها على أنها "زائفة". وكان ينبغي أن تتمكن جهات تدقيق الحقائق من القيام بذلك بمجرد إصدار السلطات البريطانية بيانات بشأن الاسم الزائف بتاريخ 30 يوليو. وقد تم بعد ذلك تغطية هذه المنشورات بتسمية تدقيق الحقائق، وتم الحد من انتشارها في غضون ساعات من ظهورها على المنصة"، وتم توجيه المستخدمين إلى مقالة من جهة تدقيق حقائق تصحح المعلومات الزائفة. لمزيد من المعلومات حول نهج Meta في تدقيق الحقائق، راجع الرأي الاستشاري بشأن السياسة إزالة المعلومات المضللة بشأن فيروس كورونا (كوفيد-١٩). لا يعرف المجلس نسبة ما تمت مراجعته بواسطة جهات تدقيق الحقائق من إجمالي المحتوى الزائف الذي نُشر خلال أعمال الشغب التي شهدتها المملكة المتحدة. ويُذكّر المجلس بمخاوفه من أن عدد جهات تدقيق الحقائق التي تعتمد عليها Meta محدود، وأن حجمًا كبيرًا من المحتوى المدرج في قائمة المراجعة غالبًا لا يتم تقييمه أبدًا.
مع قيام Meta باستكشاف عملية إطلاق برنامج "ملاحظات المجتمع" – الذي تنوي من خلاله استبدال تدقيق الحقائق بواسطة الجهات الخارجية، بدءًا من الولايات المتحدة – ينبغي لها أن تدرس تجربة المنصات التي استخدمت أدوات مماثلة لمواجهة المعلومات المضللة خلال أعمال الشغب التي شهدتها المملكة المتحدة، بالإضافة إلى الأبحاث الأوسع حول فعّالية "ملاحظات المجتمع". على سبيل المثال، وجد بحثًا أجراه مركز مكافحة الكراهية الرقمية (CCDH) لمنشورات على منصة X من خمسة حسابات بارزة نشرت معلومات زائفة خلال أعمال الشغب التي شهدتها المملكة المتحدة، أن هذه الحسابات حققت أكثر من 430 مليون مشاهدة. ووفقًا لتحليل المركز، فإن منشورًا واحدًا فقط من بين 1,060 منشورًا شاركتها هذه الحسابات في الفترة ما بين 29 يوليو و5 أغسطس تضمّن "ملاحظة للمجتمع".
العناية الواجبة بحقوق الإنسان
تُلزم مبادئ الأمم المتحدة التوجيهية بشأن الأعمال التجارية وحقوق الإنسان رقم 13 و17 (ج) و18، Meta باتخاذ تدابير العناية الواجبة بحقوق الإنسان عند إجراء تغييرات جوهرية على السياسة وآليات الإنفاذ، وهو ما تقوم به الشركة عادةً من خلال منتدى سياسة المنتجات الخاص بها، بما في ذلك التفاعل مع أصحاب المصلحة المتأثرين. يُعرب المجلس عن قلقه من أن تغييرات السياسة وآليات الإنفاذ التي أعلنتها Meta في 7 يناير 2025 قد تم الإعلان عنها بشكل متعجل، وبطريقة تخالف الإجراءات المعتادة، دون نشر أي معلومات علنية حول ما إذا كانت قد أجرت أي شكل من أشكال العناية الواجبة بحقوق الإنسان مسبقًا.
والآن وفي ظل طرح هذه التغييرات على مستوى العالم، من الأهمية بمكان أن تحرص Meta على تحديد الآثار السلبية لهذه التغييرات على حقوق الإنسان مع العمل على التخفيف من حدتها ومنع حدوثها وتقديم تقارير علنية عنها. ويجب أن يتضمن ذلك التركيز على كيفية تأثر المجموعات المختلفة بطرق مختلفة، بما في ذلك المهاجرون واللاجئون وطالبو اللجوء. وفيما يتعلق بتغييرات الإنفاذ، ينبغي أن تراعي العناية الواجبة احتمالية الإفراط في الإنفاذ كما في حالتيّ (الدعوة إلى تظاهرة نسائية في كوبا وتغيير دلالة كلمات عربية ازدرائية إلى كلمات مقبولة) وكذلك ضعف الإنفاذ كما في حالات (إنكار محرقة اليهود (الهولوكوست) و(العنف ضد المثليين في غرب أفريقيا ومنشور باللغة البولندية يستهدف الأشخاص المتحولين جنسيًا). يشير المجلس إلى أهمية التوصية الأولى في حالات "انتقادات سياسات الهجرة والمهاجرين في الاتحاد الأوروبي" كمرجعية لمعالجة هذه المخاوف.
6. قرار مجلس الإشراف
مجلس الإشراف يلغي قرارات Meta الأصلية بالإبقاء على جميع عناصر المحتوى الثلاثة، وألزم الشركة بحذف المنشورين الثاني والثالث.
7. التوصيات
سياسة المحتوى
1. لتحسين وضوح معيار مجتمعها بشأن العنف والتحريض، يجب على Meta أن تُوضح أن جميع التهديدات بالعنف شديد الخطورة ضد الأماكن محظورة، مثلها مثل التهديدات الموجهة إلى الأشخاص.
سيعتبر المجلس أن هذه التوصية قد دخلت حيز التنفيذ عند تحديث Meta لمعيار مجتمعها بشأن العنف والتحريض.
إنفاذ السياسات
2. لتحسين وضوح معيار مجتمعها بشأن السلوك الذي يحض على الكراهية، يجب على Meta أن تضع معايير واضحة وقوية لتحديد ما قد يشكّل ادعاءات بارتكاب سلوك إجرامي خطير، استنادًا إلى السمات التي تتمتع بحقوق حماية، عندما تأتي بتنسيق بصري. يجب أن تتماشى هذه المعايير مع المعايير الحالية للسلوك يحض على الكراهية عندما يأتي في صورة نص، وأن تتكيف معها لضمان التطبيق المتسق عند التعامل مع النصوص والصور على حد سواء.
سيعتبر المجلس أن هذه التوصية قد دخلت حيز التنفيذ عندما تعكس معايير التنفيذ الداخلية التغيير المقترح.
3. لضمان استجابة Meta للأزمات بفعّالية واتساق، يجب على الشركة مراجعة المعايير التي وضعتها لتفعيل بروتوكول سياسة الأزمات. بالإضافة إلى النهج الحالي، الذي يتضمن استعانة الشركة بقائمة شروط قد تؤدي أو لا تؤدي إلى تفعيل البروتوكول، ينبغي أن تحدد الشركة معايير رئيسية، يكون تحققها كافيًا لتفعيل البروتوكول فورًا.
سيعتبر المجلس أن هذه التوصية قد دخلت حيز التنفيذ عندما تُطلع Meta المجلس على نهجها الجديد لتفعيل بروتوكول سياسة الأزمات وتفصح عن الإجراءات في مركز الشفافية التابع لها.
4. لضمان إنفاذ دقيق لسياسات العنف والتحريض والسلوك الذي يحض على الكراهية في الأزمات المستقبلية، يجب أن يضمن بروتوكول سياسة الأزمات من شركة Meta أن تتم إحالة الانتهاكات المحتملة للسياسة والتي قد تؤدي إلى عنف وشيك ومرجّح إلى مراجعين بشريين داخليين. ينبغي لهؤلاء المراجعين تقديم إرشادات تستند إلى السياق، ومحددة زمنيًا للمراجعين على نطاق واسع، بما في ذلك الانتهاكات المتضمنة في الصور.
سيعتبر المجلس أن هذا التوصية قد دخلت حيز التنفيذ عندما تشارك Meta مستندات عن هذه الأداة الجديدة في بروتوكول سياسة الأزمات، موضحة كيف (1) يتم الإبلاغ عن الانتهاكات المحتملة للمراجعة الداخلية وكيف (2) يتم نقل الإرشادات التي تستند إلى السياق وكيف (3) يتم تنفيذها بالنسبة إلى المراجعين الذين يعملون على نطاق واسع.
5. مع شروع الشركة في طرح ميزة "ملاحظات المجتمع"، ينبغي لها إجراء تقييمات مستمرة لفعّالية "ملاحظات المجتمع" مقارنةً بتدقيق الحقائق بواسطة الجهات الخارجية. ينبغي أن تركز هذه التقييمات على السرعة، والدقة، وحجم الملاحظات أو التسميات المضافة في الحالات التي يشكّل فيها الانتشار السريع للمعلومات الزائفة خطرًا على السلامة العامة.
سيعتبر المجلس أن هذه التوصية قد دخلت حيز التنفيذ عندما تقدم Meta تحديثات إلى المجلس كل ستة أشهر إلى أن يكتمل التنفيذ، وتُشارك نتائج هذا التقييم علنًا.
*ملاحظة إجرائية:
- يتم اتخاذ قرارات مجلس الإشراف من قِبَل لجان مكونة من خمسة أعضاء، وتتم الموافقة عليها بأغلبية أصوات المجلس بالكامل. ولا يلزم بالضرورة أن تُعبّر قرارات المجلس عن وجهات النظر لجميع الأعضاء.
- بموجب اتفاقيته، يجوز لمجلس الإشراف مراجعة الطعون المقدمة من المستخدمين الذين أزالت Meta محتواهم، والطعون المقدمة من المستخدمين الذين أبلغوا عن محتوى أبقت عليه Meta، بالإضافة إلى القرارات التي تحيلها Meta إليه (المادة 2، القسم 1 من الاتفاقية). يتمتع المجلس بسلطة مُلزمة تتيح له تأييد أو إلغاء القرارات التي تتخذها Meta بشأن المحتوى (المادة 3، القسم 5 من الاتفاقية؛ المادة 4 من اتفاقية المجلس). ويحق للمجلس إصدار توصيات غير ملزِمة تكون شركة Meta ملزَمة بالرد عليها (المادة 3، القسم 4 من الاتفاقية؛ المادة 4). وعندما تلتزم Meta بتنفيذ التوصيات، يراقب المجلس هذا التنفيذ.
- بالنسبة إلى القرار المتخذ بشأن هذه الحالة، أُجري بحث مستقل نيابةً عن المجلس. وقد تلقى المجلس مساعدة من شركة Duco Advisors، وهي شركة استشارات تركز على نقطة التقاء الجغرافيا السياسية والثقة والأمان والتكنولوجيا.
العودة إلى قرارات الحالة والآراء الاستشارية المتعلقة بالسياسة