حالات جديدة تتعلق بمنشورات تمت مشاركتها لدعم أعمال الشغب في المملكة المتحدة

يعلن المجلس اليوم عن حالتين جديدتين يتم النظر فيهما. وفي إطار ذلك، ندعو الأفراد والمنظمات إلى تقديم تعليقات عامة باستخدام الزر أدناه.

اختيار الحالة

ولأننا لا نستطيع سماع كل عملية طعن، يعطي المجلس الأولوية للحالات التي قد تؤثر على الكثير من المستخدمين حول العالم، أو ذات أهمية بالغة للخطاب العام أو التي تطرح أسئلة مهمة حول سياسات Meta.

والحالات التي نعلن عنها اليوم هي كما يلي:

منشورات تدعم أعمال الشغب في المملكة المتحدة‬

2025-009-FB-UA, 2025-010-FB-UA, 2025-011-FB-UA

‬‏‫مستخدم يقدِّم طعنًا لإزالة المحتوى

تقديم تعليق عام باستخدام الزر الوارد أدناه

سيتناول مجلس الإشراف الحالات الثلاث أدناه معًا، ويختار إما تأييد قرارات Meta أو إلغاءها على أساس كل حالة على حدة.

شارك ثلاثة من مستخدمي فيسبوك محتوى خلال أعمال الشغب التي وقعت في المملكة المتحدة في الفترة ما بين 30 يوليو و7 أغسطس 2024. وقد اندلعت أعمال الشغب بسبب هجوم بالسكين وقع في 29 يوليو في ساوثبورت، إنجلترا، حيث قُتلت ثلاث فتيات وأصيبت ثماني فتيات أخريات في ورشة رقص تحت عنوان تايلور سويفت. في أعقاب الهجوم، انتشرت بسرعة على وسائل التواصل الاجتماعي معلومات مضللة حول هوية المهاجم، والتي تشير خطأً إلى أنه طالب لجوء مسلم. وقد شملت أعمال العنف والفوضى التي أعقبت ذلك آلاف الأشخاص، بما في ذلك الجماعات المعادية للمسلمين والمجموعات المناهضة للهجرة، بالإضافة إلى الأضرار التي لحقت بالممتلكات مثل مراكز اللاجئين والفنادق التي تؤوي المهاجرين، فضلاً عن الإصابات التي لحقت برجال الشرطة.

وأعرب المنشور الأول عن اتفاقه مع أعمال الشغب، داعيًا إلى تحطيم المزيد من المساجد وإضرام النار في المباني التي "يعيش فيها الحثالة"، مشيرًا أيضًا إلى "المهاجرين والإرهابيين". وأقرّ الشخص الذي نشر المحتوى بأن أعمال الشغب ألحقت أضرارًا بالممتلكات الخاصة وأصابت رجال الشرطة، لكنه يزعم أنه بدون هذا العنف لن تستمع السلطات وتضع حدًا "لكل الحثالة القادمين إلى بريطانيا". وأخيرًا، ذكّر المنشور القراء بجرائم القتل، مشيرًا إلى أن الفتيات الثلاث لن يكنّ آخر الضحايا إذا لم يفعل الجمهور شيئًا. تمت مشاهدة هذا المنشور أكثر من 1,000 مرة وحظي بأقل من 50 تعليقًا.

الجزء الثاني من المحتوى هو إعادة مشاركة لمنشور آخر. يحتوي على ما يبدو وكأنه صورة تم إنشاؤها بواسطة الذكاء الاصطناعي لرجل عملاق يرتدي قميصًا يحمل علم المملكة المتحدة ويطارد عدة رجال مسلمين. تحتوي الصورة على تراكب نصي يوفر وقت ومكان التجمع لأحد الاحتجاجات ويتضمن هاشتاج "EnoughIsEnough". حظي هذا المحتوى بأقل من 1,000 مشاهدة.

أما المنشور الثالث فهو إعادة نشر صورة أخرى من المحتمل أن تكون قد تم إنشاؤها بواسطة الذكاء الاصطناعي لأربعة رجال مسلمين يرتدون سترات بيضاء، ويركضون أمام مبنى البرلمان خلف طفل صغير أشقر الشعر يبكي ويرتدي قميصًا يحمل علم المملكة المتحدة. يلوح أحد الرجال بسكين بينما تحلق طائرة في الأعلى باتجاه ساعة بيج بين. الصورة مصحوبة بتعليق "استيقظ". وقد حصل هذا الجزء من المحتوى أيضًا على أكثر من 1000 مشاهدة وأقل من 50 تعليقًا.

تم الإبلاغ عن الثلاثة جميعهم من قبل مستخدمي فيسبوك آخرين لانتهاكهم سياسات الخطاب الذي يحض على الكراهية أو العنف والتحريض. بعد التقييمات التي أجرتها أدوات Meta المؤتمتة، تم الاحتفاظ بجميع المنشورات الثلاثة على فيسبوك. لقد تقدم المستخدمون الذين أبلغوا عن المحتوى بطعن ضد بقاء المنشورات مرفوعة، لكن أنظمة Meta المؤتمتة أكدت القرارات الأولية. لم يتم تقييم أي من المنشورات من قبل البشر. ثم قدم المستخدمون أنفسهم طعنًا إلى المجلس قائلين إن المحتوى إما أنه يحرض على العنف ضد المهاجرين، أو يروج للرواية القائلة بأن المهاجرين هم المسؤولون عن جرائم القتل في ساوثبورت أو يشجع الناس على حضور أعمال الشغب.

وقد اختار المجلس هذه الحالات لفحص مدى استعداد سياسة Meta واستجابتها للأزمات في مواجهة أعمال الشغب العنيفة التي تستهدف مجتمعات المهاجرين والمسلمين. وتندرج هذه الحالة ضمن الأولويات الإستراتيجية للمجلس فيما يتعلق بالخطاب الذي يحض على الكراهية ضد الفئات المهمشة.

نتيجة لاختيار المجلس لهذه الحالات، قررت Meta أن قرارها السابق بترك المنشور الأول على فيسبوك كان خطأً. أزالت الشركة المنشور بموجب سياستها الخاصة بالعنف والتحريض. أكدت Meta صحة قرارها بالإبقاء على المنشور الثاني والثالث على فيسبوك. ووفقًا للشركة، بالنسبة للمنشور الثاني (الرجل العملاق)، لم يكن هناك انتهاك لسياسة العنف والتحريض لأن الصورة لم تشكل دعوة للعنف ضد هدف ما. وفقًا لشركة Meta، فإن المنشور الثالث (أربعة رجال يركضون خلف طفل صغير) لم ينتهك سياسة الخطاب الذي يحض على الكراهية لديها لأن Meta فسرت الصورة على أنها تشير إلى رجل أو رجال مسلمين محددين - وليس كل المسلمين. قررت Meta أن الصورة يجب أن تفسر على أنها إشارة إلى جريمة معينة - وليس خطابًا لا إنسانيًا يستهدف المسلمين أو المهاجرين المسلمين، نظرًا لما وصفته Meta بـ "الشائعة الكاذبة" التي انتشرت على نطاق واسع، والتي تزعم أن مرتكب هجوم ساوثبورت كان مسلمًا أو مهاجرًا. أضافت الشركة أن نهجها في الإنفاذ في سياق الاحتجاجات هو تفضيل أقصى قدر من الحماية للصوت.

سيكون المجلس ممتنًا إذا تلقى تعليقات عامة عما يلي:

  • الدور الذي لعبته وسائل التواصل الاجتماعي في أعمال الشغب التي شهدتها المملكة المتحدة عام 2024، بما في ذلك انتشار المعلومات المضللة، في تنظيم أعمال الشغب وإعلام الجمهور بالتطورات ذات الصلة.
  • أي روابط موثقة بين الخطاب المعادي للمهاجرين والمسلمين على الإنترنت والعنف والتمييز في المملكة المتحدة.
  • الدور الذي تلعبه الصور (أي الصور والرسومات والميمات ومقاطع الفيديو، بما في ذلك الصور التي يتم إنشاؤها بواسطة الذكاء الاصطناعي) في الخطاب الذي يحض على الكراهية على الإنترنت.
  • التحديات التي تواجه الأتمتة في تقييم خطاب التحريض أو الخطاب الذي يحض على الكراهية في الصور، خاصةً تلك التي تم إنشاؤها بواسطة الذكاء الاصطناعي.
  • مخاطر الإفراط في إنفاذ معايير المجتمع في مثل هذه السياقات والآثار السلبية المحتملة على حقوق حرية التعبير للمتحدثين والمستمعين.
  • ما إذا كان ينبغي على Meta النظر في اتخاذ تدابير الإشراف على المحتوى قبل الإزالة لهذا النوع من المحتوى.

يمكن للمجلس إصدار توصيات للسياسة لشركة Meta، وهذا كجزء من قراراته. في حين أن تلك التوصيات غير ملزمة، يجب على شركة Meta الرد عليها في غضون 60 يومًا. لهذا، يرحب المجلس بالتعليقات العامة التي تقدم توصيات ذات صلة بهذه الحالات.

التعليقات العامة

إذا شعرت أنت أو مؤسستك أنه بإمكانك المساهمة بوجهات نظر قيمة يمكن أن تساعد في التوصل إلى قرار بشأن الحالات المعلن عنها اليوم، فعندئذٍ يمكنك تقديم مساهماتك باستخدام الزر أدناه. تُرجى ملاحظة أنه يمكن تقديم التعليقات العامة بشكل مجهول الهوية. نافذة التعليق العام مفتوحة لمدة 14 يومًا، وتُغلق في الساعة 23:59 بتوقيت المحيط الهادئ (PST) يوم الثلاثاء 17 ديسمبر.

ما الخطوة التالية

على مدار الأسابيع القليلة القادمة، سيدرس أعضاء المجلس تلك الحالات. وبمجرد وصولهم إلى قراراتهم، سننشرها على صفحة القرارات.

العودة إلى الأخبار