لقطات من هجوم موسكو الإرهابي

ألغى المجلس قرارات Meta بشأن إزالة ثلاثة منشورات على فيسبوك تعرض لقطات للهجوم الإرهابي الذي وقع في مارس 2024 في موسكو؛ وطلب استعادة المحتوى مع تغطيته بشاشات تحذيرية بعنوان "تمييز كمزعج"

نظرًا لأن المنشورات انتهكت قواعد Meta بشأن عرض لحظة الهجمات المُصنّفة على الضحايا الظاهرين، فإن إزالتها كان لا يتوافق مع مسؤوليات الشركة تجاه حقوق الإنسان. وتعتبر المنشورات التي تناولت حدثًا تصدَّر الصفحات الأولى للأخبار في جميع أنحاء العالم ذات قيمة كبيرة بالنسبة إلى المصلحة العامة، ويجب حمايتها بموجب استثناء الأهمية الإخبارية، وذلك وفقًا لأغلبية أعضاء المجلس. وفي دولة تتسم بمناخ إعلامي مغلق مثل روسيا، فإن الوصول إلى مثل هذا المحتوى على وسائل التواصل الاجتماعي يُعد أكثر أهمية. وتحمل كل المنشورات لغة واضحة تدين الهجوم، وتعبر عن التضامن مع الضحايا أو تهتم لأمرهم، مع عدم وجود خطر واضح من أن يؤدي ذلك إلى التطرف أو التحريض على العنف.

إن إخفاء أمور ذات اهتمام عام بالغ تحت ذريعة مخاوف لا أساس لها قد تشجع على التطرف لا يتوافق مع مسؤوليات Meta تجاه حرية التعبير. وبالتالي، يجب أن تسمح Meta بعرض صور منشورة بواسطة جهات خارجية، مع تغطية المحتوى بشاشة تحذيرية بعنوان "تمييز كمزعج"، لحدث مُصنّف يعرض لحظة الهجمات على ضحايا ظاهرين ولكن لا يمكن التعرف عليهم عند مشاركتها في سياقات التقارير الإخبارية والإدانة وتعزيز مستوى الوعي.

حول الحالات

تضمّنت الحالة الأولى مقطع فيديو يُظهر جزءًا من الهجوم داخل مجمع البيع بالتجزئة، ويبدو أنه من تصوير أحد المارة. وبينما كان المهاجمون والأشخاص الذين تعرضوا لإطلاق النار ظاهرين لكن لم يكن من السهل التعرف عليهم، كان من الممكن التعرف على الآخرين الذين كانوا يغادرون المبنى. وتم طرح سؤال في الشرح التوضيحي عمّا يحدث في روسيا، وتضمّن الدعاء للمتضررين.

تضمّنت الحالة الأولى مقطع فيديو يُظهر جزءًا من الهجوم داخل مجمع البيع بالتجزئة، ويبدو أنه من تصوير أحد المارة. وبينما كان المهاجمون والأشخاص الذين تعرضوا لإطلاق النار ظاهرين لكن لم يكن من السهل التعرف عليهم، كان من الممكن التعرف على الآخرين الذين كانوا يغادرون المبنى. وتم طرح سؤال في الشرح التوضيحي عمّا يحدث في روسيا، وتضمّن الدعاء للمتضررين.

تضمنت الحالة الثانية مقطع فيديو أقصر لنفس اللقطات، مع شرح توضيحي يحذر المشاهدين من المحتوى ويذكر أنه لا مكان للإرهاب في العالم.

تتعلق الحالة الثالثة بمنشور نشره أحد المسؤولين على صفحة مجموعة على فيسبوك. ويعبر وصف المجموعة عن دعمها للمرشح الرئاسي الفرنسي السابق إيريك زمور. وتضمّن المنشور صورة ثابتة من أحداث الهجوم من المحتمل أن تكون مأخوذة من نفس الفيديو، وتُظهِر مسلحين وضحايا. إضافةً إلى ذلك، كان هناك مقطع فيديو قصير لحريق شب في مجمع البيع بالتجزئة، وقام بتصويره شخص بينما كان يقود سيارته بجواره. وجاء في الشرح التوضيحي أن أوكرانيا نفت علاقتها بالهجوم، مع الإشارة إلى أنه لم يعلن أحد مسؤوليته عن الهجوم. وتضمن الشرح التوضيحي أيضًا بيان دعم للشعب الروسي.

قامت Meta بإزالة جميع المنشورات الثلاثة لانتهاكها سياستها بشأن "المنظمات الخطرة والأفراد الخطرون"، والتي تحظر الصور المنشورة بواسطة جهات خارجية والتي تصور لحظة مثل هذه الهجمات على ضحايا ظاهرين. ووصفت Meta هجوم موسكو بأنه هجوم إرهابي في يوم وقوعه. وبحسب Meta، قام بالفعل مستخدم آخر بنشر الفيديو نفسه الذي تمت مشاركته في أول حالتين، ثم تم تصعيده إلى فريق سياسة الشركة أو الخبراء المتخصصين لإجراء مراجعة إضافية في وقت سابق من اليوم. وبعد هذه المراجعة، قررت Meta إزالة الفيديو وإضافته إلى بنك خدمة مطابقة الوسائط (MMS). وقرر البنك لاحقًا أن المحتوى في أول حالتين يتطابق مع الفيديو المُخزَّن الذي تم تمييزه للإزالة وتمت إزالته تلقائيًا. وفي الحالة الثالثة، أزالت Meta المحتوى بعد إجراء مراجعة بشرية.

أسفر الهجوم الذي وقع في 22 مارس 2024 في قاعة مدينة كروكوس بموسكو عن مقتل 143 شخصًا على الأقل. وأعلنت إحدى الجماعات التابعة لتنظيم الدولة الإسلامية، داعش خراسان، مسؤوليتها بعد وقت قصير من الهجوم. ووفقاً للخبراء الذين استشارهم المجلس، شاهد عشرات الملايين من الروس فيديو الهجوم على القنوات الإعلامية التي تديرها الدولة، فضلاً عن منصات التواصل الاجتماعي الروسية. وبينما زعم الرئيس الروسي فلاديمير بوتين أن أوكرانيا تقف وراء الهجوم بدعم من الاستخبارات الغربية، إلا أن أوكرانيا نفت تورطها في الأمر تمامًا.

أهم النتائج

في حين أن المنشورات كانت إما تبلّغ عن الهجمات أو تعزز مستوى الوعي بها أو تدينها، فإن Meta لا تطبق هذه الاستثناءات بموجب سياسة "المنظمات الخطرة والأفراد الخطرون" على "الصور المنشورة بواسطة جهات خارجية والتي تصور لحظة الهجمات [المُصنّفة] على الضحايا الظاهرين". وبالتالي، فمن الواضح للمجلس أن جميع المنشورات الثلاثة تنتهك قواعد Meta.

على الرغم من ذلك، يرى أغلبية أعضاء المجلس أن إزالة هذا المحتوى لا يتوافق مع مسؤوليات Meta تجاه حقوق الإنسان، وكان من المفترض حماية المحتوى بموجب بدل استثناء الأمر الإخبارية. احتوى كل منشور من المنشورات الثلاثة على مناقشة عامة عاجلة تتعلق بحدث تصدَّر الصفحات الأولى للأخبار في جميع أنحاء العالم. ولا يتضح أي خطر في أن تؤدي المنشورات إلى التطرف أو التحريض على العنف. يحتوي كل منشور على لغة واضحة تدين الهجوم، وتظهر التضامن مع الضحايا أو تهتم لأمرهم، وتسعى إلى توعية الجمهور. وبجانب غياب حرية الإعلام في روسيا وحقيقة أنه لا يمكن التعرف على الضحايا بسهولة، إلا أن هذا من شأنه أن يجعل هذه المنشورات تخدم المصلحة العامة.

إن إخفاء محتوى متعلق بأمور ذات اهتمام عام بالغ تحت ذريعة مخاوف لا أساس لها قد تشجع على التطرف لا يتوافق مع مسؤوليات Meta تجاه حرية التعبير. وهذا هو الحال تحديدًا عندما شاهد ملايين الأشخاص اللقطات مصحوبة بادعاءات بأن أوكرانيا هي من تقف بشكل جزئي وراء الهجوم. ويشير المجلس إلى أهمية الحفاظ على إمكانية الوصول إلى المعلومات أثناء الأزمات خاصةً في روسيا، حيث يعتمد الأشخاص على وسائل التواصل الاجتماعي للحصول على المعلومات أو تعزيز مستوى الوعي بين الجماهير على مستوى العالم.

في حين أنه في ظروف معينة تكون إزالة المحتوى الذي يصور ضحايا يمكن التعرف عليهم أمرًا ضروريًا ومتناسبًا (على سبيل المثال، في النزاعات المسلحة عندما يكون الضحايا أسرى حرب) لأنه لا يمكن التعرف على الضحايا في هذه الحالات بسهولة، فإن استعادة المنشورات مع تغطيتها بشاشة تحذيرية مقيدة بسن يتماشى أكثر مع مسؤوليات Meta تجاه حقوق الإنسان. لذلك، يجب على Meta تعديل سياستها للسماح بالصور المنشورة بواسطة جهات خارجية للضحايا الظاهرين ولكن لا يمكن التعرف عليهم شخصيًا عند مشاركتها بوضوح في سياقات التقارير الإخبارية أو الإدانة أو تعزيز الوعي.

لا توافق أقلية من أعضاء المجلس على ذلك وتؤيد قرار Meta بإزالة المنشورات من فيسبوك. وبالنسبة إلى الأقلية، فإن الطبيعة الصادمة للقطات وحقيقة أنها تُظهر لحظة الهجوم ووفاة الضحايا الظاهرين، في هذه الحالة، تجعل إزالتها ضرورية من أجل كرامة الضحايا وعائلاتهم.

بالإضافة إلى ذلك، تبيَّن للمجلس أن الوضع الحالي للقاعدة بشأن لقطات أحداث العنف المخالفة بموجب سياسة "المنظمات الخطرة والأفراد الخطرون" يضع المستخدمين في حيرة. في حين أن قسم "نحرص على إزالة ما يلي" يشير ضمنًا إلى أنه مسموح بالإدانة والتقارير الإخبارية، إلا أن الأقسام الأخرى تنص على أن الصور التي ينشئها الجناة وصور الجهات الخارجية للحظات الهجمات على الضحايا الظاهرين هي صور محظورة ولا تحدد أن Meta ستزيل هذا المحتوى حتى إذا كان يدين الهجمات أو يعزز مستوى الوعي بها.

قرار مجلس الإشراف

ألغى مجلس الإشراف قرارات Meta بإزالة المنشورات الثلاثة، وطلب استعادة المحتوى مع تغطيته بشاشات تحذيرية بعنوان "تمييز كمزعج".

يوصي المجلس Meta أيضًا بما يلي:

  • السماح بعرض صور منشورة بواسطة جهات خارجية، مع تغطية المحتوى بشاشة تحذيرية بعنوان "تمييز كمزعج"، لحدث مُصنّف يعرض لحظة الهجمات على ضحايا ظاهرين ولكن لا يمكن التعرف عليهم بشكل شخصي عند مشاركتها في سياقات التقارير الإخبارية والإدانة وتعزيز مستوى الوعي.
  • تضمين قاعدة ضمن قسم "نحرص على إزالة ما يلي" في معيار المجتمع "المنظمات الخطرة والأفراد الخطرون" بشأن أحداث العنف المُصنّفة. ويجب أيضًا نقل شرح كيفية تعامل Meta مع المحتوى الذي يصور أحداثًا مُصنّفة من قسم مبادئ السياسة إلى هذا القسم.

لمزيد من المعلومات

To read public comments for this case, click here.

العودة إلى الأخبار