قرار قضية متعددة

لقطات من هجوم موسكو الإرهابي

ألغى المجلس قرارات Meta بشأن إزالة ثلاثة منشورات على فيسبوك تعرض لقطات للهجوم الإرهابي الذي وقع في مارس 2024 في موسكو؛ وطلب استعادة المحتوى مع تغطيته بشاشات تحذيرية بعنوان "تمييز كمزعج".

3 تم تضمين من الحالات في هذه الحزمة

أسقط

FB-A7NY2F6F

حالة بشأن محتوى عنيف وصادم على فيسبوك

منصة
Facebook
عنوان
مناسبات إخبارية,عنف
معيار
المحتوى العنيف والصادم
موقع
روسيا
Date
تم النشر بتاريخ تم النشر بتاريخ 19 تِشْرِين الثانِي 2024
أسقط

FB-G6FYJPEO

حالة بشأن محتوى عنيف وصادم على فيسبوك

منصة
Facebook
عنوان
مناسبات إخبارية,عنف
معيار
المحتوى العنيف والصادم
موقع
روسيا
Date
تم النشر بتاريخ تم النشر بتاريخ 19 تِشْرِين الثانِي 2024
أسقط

FB-33HL31SZ

حالة بشأن محتوى عنيف وصادم على فيسبوك

منصة
Facebook
عنوان
مناسبات إخبارية,عنف
معيار
المحتوى العنيف والصادم
موقع
روسيا
Date
تم النشر بتاريخ تم النشر بتاريخ 19 تِشْرِين الثانِي 2024

للاطلاع على القرار الكامل باللغة الروسية، انقر هنا.

Чтобы прочитать это решение на русском языке, нажмите здесь.

لتنزيل ملف PDF للقرار الكامل، انقر هنا.

ملخص

ألغى المجلس قرارات Meta بشأن إزالة ثلاثة منشورات على فيسبوك تعرض لقطات للهجوم الإرهابي الذي وقع في مارس 2024 في موسكو؛ وطلب استعادة المحتوى مع تغطيته بشاشات تحذيرية بعنوان "تمييز كمزعج".

نظرًا لأن المنشورات انتهكت قواعد Meta بشأن عرض لحظة الهجمات المُصنّفة على الضحايا الظاهرين، فإن إزالتها كان لا يتوافق مع مسؤوليات الشركة تجاه حقوق الإنسان. وتعتبر المنشورات التي تناولت حدثًا تصدَّر الصفحات الأولى للأخبار في جميع أنحاء العالم ذات قيمة كبيرة بالنسبة إلى المصلحة العامة، ويجب حمايتها بموجب استثناء الأهمية الإخبارية، وذلك وفقًا لأغلبية أعضاء المجلس. وفي دولة تتسم بمناخ إعلامي مغلق مثل روسيا، فإن الوصول إلى مثل هذا المحتوى على وسائل التواصل الاجتماعي يُعد أكثر أهمية. وتحمل كل المنشورات لغة واضحة تدين الهجوم، وتعبر عن التضامن مع الضحايا أو تهتم لأمرهم، مع عدم وجود خطر واضح من أن يؤدي ذلك إلى التطرف أو التحريض على العنف.

إن إخفاء أمور ذات اهتمام عام بالغ تحت ذريعة مخاوف لا أساس لها قد تشجع على التطرف لا يتوافق مع مسؤوليات Meta تجاه حرية التعبير. وبالتالي، يجب أن تسمح Meta بعرض صور منشورة بواسطة جهات خارجية، مع تغطية المحتوى بشاشة تحذيرية بعنوان "تمييز كمزعج"، لحدث مُصنّف يعرض لحظة الهجمات على ضحايا ظاهرين ولكن لا يمكن التعرف عليهم عند مشاركتها في سياقات التقارير الإخبارية والإدانة وتعزيز مستوى الوعي.

حول الحالات

لقد راجع المجلس ثلاث حالات معًا تتضمن محتوى نشره مستخدمون مختلفون على فيسبوك مباشرةً بعد الهجوم الإرهابي الذي وقع في 22 مارس 2024 في قاعة للحفلات الموسيقية ومجمع للبيع بالتجزئة في موسكو.

تضمّنت الحالة الأولى مقطع فيديو يُظهر جزءًا من الهجوم داخل مجمع البيع بالتجزئة، ويبدو أنه من تصوير أحد المارة. وبينما كان المهاجمون والأشخاص الذين تعرضوا لإطلاق النار ظاهرين لكن لم يكن من السهل التعرف عليهم، كان من الممكن التعرف على الآخرين الذين كانوا يغادرون المبنى. وتم طرح سؤال في الشرح التوضيحي عمّا يحدث في روسيا، وتضمّن الدعاء للمتضررين.

تضمنت الحالة الثانية مقطع فيديو أقصر لنفس اللقطات، مع شرح توضيحي يحذر المشاهدين من المحتوى ويذكر أنه لا مكان للإرهاب في العالم.

تتعلق الحالة الثالثة بمنشور نشره أحد المسؤولين على صفحة مجموعة على فيسبوك. ويعبر وصف المجموعة عن دعمها للمرشح الرئاسي الفرنسي السابق إيريك زمور. وتضمّن المنشور صورة ثابتة من أحداث الهجوم من المحتمل أن تكون مأخوذة من نفس الفيديو، وتُظهِر مسلحين وضحايا. إضافةً إلى ذلك، كان هناك مقطع فيديو قصير لحريق شب في مجمع البيع بالتجزئة، وقام بتصويره شخص بينما كان يقود سيارته بجواره. وجاء في الشرح التوضيحي أن أوكرانيا نفت علاقتها بالهجوم، مع الإشارة إلى أنه لم يعلن أحد مسؤوليته عن الهجوم. وتضمن الشرح التوضيحي أيضًا بيان دعم للشعب الروسي.

قامت Meta بإزالة جميع المنشورات الثلاثة لانتهاكها سياستها بشأن "المنظمات الخطرة والأفراد الخطرون"، والتي تحظر الصور المنشورة بواسطة جهات خارجية والتي تصور لحظة مثل هذه الهجمات على ضحايا ظاهرين. ووصفت Meta هجوم موسكو بأنه هجوم إرهابي في يوم وقوعه. وبحسب Meta، قام بالفعل مستخدم آخر بنشر الفيديو نفسه الذي تمت مشاركته في أول حالتين، ثم تم تصعيده إلى فريق سياسة الشركة أو الخبراء المتخصصين لإجراء مراجعة إضافية في وقت سابق من اليوم. وبعد هذه المراجعة، قررت Meta إزالة الفيديو وإضافته إلى بنك خدمة مطابقة الوسائط (MMS). وقرر البنك لاحقًا أن المحتوى في أول حالتين يتطابق مع الفيديو المُخزَّن الذي تم تمييزه للإزالة وتمت إزالته تلقائيًا. وفي الحالة الثالثة، أزالت Meta المحتوى بعد إجراء مراجعة بشرية.

أسفر الهجوم الذي وقع في 22 مارس 2024 في قاعة مدينة كروكوس بموسكو عن مقتل 143 شخصًا على الأقل. وأعلنت إحدى الجماعات التابعة لتنظيم الدولة الإسلامية، داعش خراسان، مسؤوليتها بعد وقت قصير من الهجوم. ووفقاً للخبراء الذين استشارهم المجلس، شاهد عشرات الملايين من الروس فيديو الهجوم على القنوات الإعلامية التي تديرها الدولة، فضلاً عن منصات التواصل الاجتماعي الروسية. وبينما زعم الرئيس الروسي فلاديمير بوتين أن أوكرانيا تقف وراء الهجوم بدعم من الاستخبارات الغربية، إلا أن أوكرانيا نفت تورطها في الأمر تمامًا.

أهم النتائج

في حين أن المنشورات كانت إما تبلّغ عن الهجمات أو تعزز مستوى الوعي بها أو تدينها، فإن Meta لا تطبق هذه الاستثناءات بموجب سياسة "المنظمات الخطرة والأفراد الخطرون" على "الصور المنشورة بواسطة جهات خارجية والتي تصور لحظة الهجمات [المُصنّفة] على الضحايا الظاهرين". وبالتالي، فمن الواضح للمجلس أن جميع المنشورات الثلاثة تنتهك قواعد Meta.

على الرغم من ذلك، يرى أغلبية أعضاء المجلس أن إزالة هذا المحتوى لا يتوافق مع مسؤوليات Meta تجاه حقوق الإنسان، وكان من المفترض حماية المحتوى بموجب بدل استثناء الأمر الإخبارية. احتوى كل منشور من المنشورات الثلاثة على مناقشة عامة عاجلة تتعلق بحدث تصدَّر الصفحات الأولى للأخبار في جميع أنحاء العالم. ولا يتضح أي خطر في أن تؤدي المنشورات إلى التطرف أو التحريض على العنف. يحتوي كل منشور على لغة واضحة تدين الهجوم، وتظهر التضامن مع الضحايا أو تهتم لأمرهم، وتسعى إلى توعية الجمهور. وبجانب غياب حرية الإعلام في روسيا وحقيقة أنه لا يمكن التعرف على الضحايا بسهولة، إلا أن هذا من شأنه أن يجعل هذه المنشورات تخدم المصلحة العامة.

إن إخفاء محتوى متعلق بأمور ذات اهتمام عام بالغ تحت ذريعة مخاوف لا أساس لها قد تشجع على التطرف لا يتوافق مع مسؤوليات Meta تجاه حرية التعبير. وهذا هو الحال تحديدًا عندما شاهد ملايين الأشخاص اللقطات مصحوبة بادعاءات بأن أوكرانيا هي من تقف بشكل جزئي وراء الهجوم. ويشير المجلس إلى أهمية الحفاظ على إمكانية الوصول إلى المعلومات أثناء الأزمات خاصةً في روسيا، حيث يعتمد الأشخاص على وسائل التواصل الاجتماعي للحصول على المعلومات أو تعزيز مستوى الوعي بين الجماهير على مستوى العالم.

في حين أنه في ظروف معينة تكون إزالة المحتوى الذي يصور ضحايا يمكن التعرف عليهم أمرًا ضروريًا ومتناسبًا (على سبيل المثال، في النزاعات المسلحة عندما يكون الضحايا أسرى حرب) لأنه لا يمكن التعرف على الضحايا في هذه الحالات بسهولة، فإن استعادة المنشورات مع تغطيتها بشاشة تحذيرية مقيدة بسن يتماشى أكثر مع مسؤوليات Meta تجاه حقوق الإنسان. لذلك، يجب على Meta تعديل سياستها للسماح بالصور المنشورة بواسطة جهات خارجية للضحايا الظاهرين ولكن لا يمكن التعرف عليهم شخصيًا عند مشاركتها بوضوح في سياقات التقارير الإخبارية أو الإدانة أو تعزيز الوعي.

لا توافق أقلية من أعضاء المجلس على ذلك وتؤيد قرار Meta بإزالة المنشورات من فيسبوك. وبالنسبة إلى الأقلية، فإن الطبيعة الصادمة للقطات وحقيقة أنها تُظهر لحظة الهجوم ووفاة الضحايا الظاهرين، في هذه الحالة، تجعل إزالتها ضرورية من أجل كرامة الضحايا وعائلاتهم.

بالإضافة إلى ذلك، تبيَّن للمجلس أن الوضع الحالي للقاعدة بشأن لقطات أحداث العنف المخالفة بموجب سياسة "المنظمات الخطرة والأفراد الخطرون" يضع المستخدمين في حيرة. في حين أن قسم "نحرص على إزالة ما يلي" يشير ضمنًا إلى أنه مسموح بالإدانة والتقارير الإخبارية، إلا أن الأقسام الأخرى تنص على أن الصور التي ينشئها الجناة وصور الجهات الخارجية للحظات الهجمات على الضحايا الظاهرين هي صور محظورة ولا تحدد أن Meta ستزيل هذا المحتوى حتى إذا كان يدين الهجمات أو يعزز مستوى الوعي بها.

قرار مجلس الإشراف

ألغى مجلس الإشراف قرارات Meta بإزالة المنشورات الثلاثة، وطلب استعادة المحتوى مع تغطيته بشاشات تحذيرية بعنوان "تمييز كمزعج".

يوصي المجلس Meta أيضًا بما يلي:

  • السماح بعرض صور منشورة بواسطة جهات خارجية، مع تغطية المحتوى بشاشة تحذيرية بعنوان "تمييز كمزعج"، لحدث مُصنّف يعرض لحظة الهجمات على ضحايا ظاهرين ولكن لا يمكن التعرف عليهم بشكل شخصي عند مشاركتها في سياقات التقارير الإخبارية والإدانة وتعزيز مستوى الوعي.
  • تضمين قاعدة ضمن قسم "نحرص على إزالة ما يلي" في معيار المجتمع "المنظمات الخطرة والأفراد الخطرون" بشأن أحداث العنف المُصنّفة. ويجب أيضًا نقل شرح كيفية تعامل Meta مع المحتوى الذي يصور أحداثًا مُصنّفة من قسم مبادئ السياسة إلى هذا القسم.

* توفر ملخصات الحالة نظرة عامة على الحالات ولا تُشكّل سابقة قانونية.

القرار الكامل للمجلس بشأن الحالة

1. وصف الحالة ومعلومات أساسية عنها

لقد راجع مجلس الإشراف ثلاث حالات معًا تتضمن محتوى نشره مستخدمون مختلفون على فيسبوك مباشرةً بعد الهجوم الإرهابي الذي وقع في 22 مارس 2024 في قاعة للحفلات الموسيقية ومجمع للبيع بالتجزئة في موسكو. وقد تم حظر منصات Meta في روسيا منذ مارس 2022، وذلك عندما صنّفت إحدى الوزارات الحكومية الشركة بأنها "منظمة متطرفة". ومع ذلك، لا يزال بإمكان الأشخاص الوصول إلى منصات Meta باستخدام الشبكات الخاصة الافتراضية (VPN).

في الحالة الأولى، نشر أحد مستخدمي فيسبوك مقطع فيديو قصيرًا على ملفه الشخصي مع شرح توضيحي باللغة الإنجليزية. وأظهر مقطع الفيديو جزءًا من الهجوم من داخل مجمع البيع بالتجزئة، ويبدو أن أحد المارة التقط اللقطات. وظهر مسلحون أثناء قيامهم بإطلاق النار على أشخاص عزل من مسافة قريبة، وكان بعض الضحايا يفترشون الأرض بينما فرّ آخرون. ولم تكن اللقطات بدقة عالية. وبينما كان المهاجمون والأشخاص الذين تعرضوا لإطلاق النار ظاهرين لكن لم يكن من السهل التعرف عليهم، كان من الممكن التعرف على الآخرين الذين كانوا يغادرون المبنى. وفي التسجيل الصوتي، كان بالإمكان سماع إطلاق نار وصراخ الناس. وتم طرح سؤال في الشرح التوضيحي عمّا يحدث في روسيا، وتضمّن الدعاء للمتضررين. وعندما قامت Meta بإزالة المنشور في غضون دقائق من نشره، كان قد حصد أقل من 50 مشاهدة.

في الحالة الثانية، نشر مستخدم آخر على فيسبوك مقطعًا أقصر بنفس اللقطات مع تعليق باللغة الإنجليزية أيضًا يحذر فيه المشاهدين من عرض المحتوى، موضحًا أنه لا مكان للإهاب في العالم. وعندما قامت Meta بإزالة المنشور في غضون دقائق من نشره، كان قد حصد أقل من 50 مشاهدة.

تتعلق الحالة الثالثة بمنشور نشره أحد المسؤولين في صفحة مجموعة. ويعبر وصف المجموعة عن دعمها للمرشح الرئاسي الفرنسي السابق إيريك زمور. وتضمّن المنشور صورة ثابتة من أحداث الهجوم من المحتمل أن تكون مأخوذة من نفس الفيديو، وتُظهِر مسلحين وضحايا. إضافةً إلى ذلك، كان هناك مقطع فيديو قصير لحريق شب في مجمع البيع بالتجزئة، وقام بتصويره شخص بينما كان يقود سيارته بجواره. وتضمن الشرح التوضيحي الفرنسي كلمة "تنبيه" إلى جانب التعليق على الهجوم، مثل عدد القتلى الذي تم الإعلان عنه. كما جاء في الشرح التوضيحي أن أوكرانيا نفت علاقتها بالهجوم، مع الإشارة إلى أنه لم يعلن أحد مسؤوليته عن الهجوم. وتم اختتام الشرح التوضيحي بعرض مقارنة مع هجوم مسرح باتاكلان الإرهابي في باريس وبيان دعم للشعب الروسي. وعندما أزالت Meta المنشور في اليوم التالي لنشره، كان قد حصد 6000 مشاهدة تقريبًا.

قامت الشركة بإزالة جميع المنشورات الثلاثة بموجب معيار المجتمع بشأن "المنظمات الخطرة والأفراد الخطرون"، والذي يحظر مشاركة عناصر المحتوى الذي ينشئها الجناة والمتعلقة بهجمات مُصنّفة، بالإضافة إلى اللقطات التي تم التقاطها أو الصور المنشورة بواسطة جهات خارجية (مثل المارة والصحفيين)، والتي تصور لحظة تعرض الضحايا الظاهرين للهجمات الإرهابية. ووصفت Meta هجوم موسكو بأنه هجوم إرهابي في نفس يوم وقوعه. وبحسب Meta، قام بالفعل مستخدم آخر بنشر الفيديو نفسه الذي تمت مشاركته في أول حالتين، ثم تم تصعيده إلى فريق سياسة الشركة أو الخبراء المتخصصين لإجراء مراجعة إضافية في وقت سابق من اليوم. وبعد هذه المراجعة، قررت Meta إزالة الفيديو وإضافته إلى بنك خدمة مطابقة الوسائط (MMS). وقرر البنك لاحقًا أن المحتوى في أول حالتين يتطابق مع الفيديو المُخزَّن الذي تم تمييزه للإزالة وتمت إزالته تلقائيًا. ولم تطبق Meta إنذارًا أو تُقيد أي ميزة في الملفات الشخصية للمستخدمين حيث كان قد تم إعداد البنك لإزالة المحتوى دون تطبيق أي إنذار. وفي الحالة الثالثة، قامت Meta بإزالة المحتوى بعد إجراء المراجعة البشرية مع قيام الشركة بتطبيق إنذار أدى إلى تقييد الميزات لمدة 30 يومًا. وقد عَمِل تقييد الميزات المطبق على المستخدم على منعه من إنشاء محتوى على المنصة، وإنشاء غرف Messenger أو الانضمام إليها، والإعلان أو إنشاء مقاطع فيديو مباشرة. كما أن السبب وراء عدم تعرُّف نظام رسائل MMS على هذا المحتوى غير معروف.

في جميع الحالات الثلاثة، تقدَّم المستخدمون بطعن إلى Meta. ووجد المراجعون البشريون أن جميع المنشورات الثلاثة مخالفة. وبعد أن اختار المجلس هذه الحالات للمراجعة، أكدت Meta أن قراراتها بإزالة جميع المنشورات الثلاثة كانت صحيحة ولكنها أزالت الإنذار في الحالة الثالثة.

أخذ المجلس في حسبانه السياق التالي عند التوصل إلى قراره.

أسفر الهجوم الذي وقع في 22 مارس 2024 في قاعة مدينة كروكوس بموسكو عن مقتل 143 شخصًا على الأقل. وأعلنت إحدى الجماعات التابعة لتنظيم الدولة الإسلامية، داعش خراسان، مسؤوليتها بعد وقت قصير من الهجوم. وسرعان ما وجه المحققون الروس الاتهام إلى أربعة أشخاص. وصرح المسؤولون الروس أن في حوزتهم 11 شخصًا رهن الاحتجاز، من بينهم المسلحون الأربعة المزعومون، كما زعموا أنهم وجدوا صلة بين المهاجمين وأوكرانيا على الرغم من نفي أوكرانيا تورطها في ذلك الهجوم.

ظهر تنظيم داعش خراسان في عام 2015 بعد انشقاق مقاتلين غاضبين من حركة طالبان الباكستانية. ويقاتل التنظيم ضد حركة طالبان في أفغانستان، كما ينفذ هجمات موجهة في إيران وروسيا وباكستان. وبحسب التقارير، أطلق التنظيم "سيلاً من الدعاية المناهضة لروسيا يدين فيها الكرملين لتدخلاته في سوريا ويدين فيها طالبان لتعاملها مع السلطات الروسية بعد عقود من الحرب غزا فيها الاتحاد السوفييتي أفغانستان".

وفقاً للخبراء الذين استشارهم المجلس، شاهد عشرات الملايين من الروس فيديو الهجوم على القنوات الإعلامية التي تديرها الدولة، فضلاً عن منصات التواصل الاجتماعي الروسية. وزعم الرئيس الروسي فلاديمير بوتين أن أوكرانيا تقف وراء الهجوم بدعم من الاستخبارات الغربية. وفقًا لاستطلاع للرأي العام أجراه مركز ليفادا في روسيا في الفترة من 18 إلى 24 أبريل، قال جميع المشاركين تقريبًا إنهم كانوا على علم بالهجوم وكانوا يتابعون القصة عن كثب، بينما اعتقد نصفهم أن أجهزة المخابرات الأوكرانية متورطة في الهجوم.

وفقاً للبحث الذي أجراه المجلس، تم تداول مقطع الفيديو الذي تمت مشاركته في تلك الحالات على نطاق واسع عبر الإنترنت، بما في ذلك من خلال حسابات وسائل إعلام روسية وعالمية. وعثر الباحثون على بعض المنشورات على فيسبوك مصحوبة بلقطات وحالات فردية لحسابات من المحتمل أن تكون تابعة أو داعمة لداعش تحتفل بالهجوم. ويشير الباحثون إلى أن منصات وسائل التواصل الاجتماعي ذات الإشراف الأقل صرامة على المحتوى تحتوي على قدر أكبر بشكل ملحوظ مقارنةً بالمحتوى الذي ينشئه الجناة.

في عام 2024، كان VK وواتساب وتيليجرام أكثر المنصات استخدامًا في روسيا. وتفرض الحكومة سيطرة كبيرة على بيئة الوسائط الإعلامية، مع سلطة مباشرة أو غير مباشرة على "جميع شبكات التلفزيون الوطنية ومعظم وسائل الإعلام الإذاعية والمطبوعة". ومنذ غزو أوكرانيا، "بدأت الحكومة أيضًا في تقييد الوصول إلى [a] مجموعة كبيرة من مواقع الويب، بما في ذلك تلك الخاصة وسائل الأخبار المحلية والأجنبية. وتم إرغام أكثر من 300 وسيلة إعلامية على تعليق أنشطتها". كما تفرض الحكومة قيودًا صارمة على الوصول إلى وسائل الإعلام الأجنبية، وتعرَّض الصحفيون التابعون لها لتهم باطلة وحملات اعتقالات، بل وسجن.

2. المعلومات المقدَّمة من المستخدمين

تقدَّم المستخدمون في جميع الحالات الثلاث بطعن إلى المجلس. وأوضحوا في تصريحاتهم أنهم شاركوا الفيديو لتحذير الأشخاص في روسيا بهدف الحفاظ على سلامتهم. وقالوا إنهم يدينون الإرهاب، وأنه ينبغي على Meta عدم منعهم من إبلاغ الأشخاص بالأحداث الحقيقية.

3. سياسات المحتوى والمعلومات المقدمة من Meta

1. سياسات المحتوى لدى شركة Meta

معيار المجتمع بشأن "المنظمات الخطرة والأفراد الخطرون"

تنص مبادئ سياسة معيار المجتمع بشأن "المنظمات الخطرة والأفراد الخطرون" على أنه في إطار السعي لمنع الأعمال التي من شأنها إلحاق أضرار فعلية على أرض الواقع وإيقافها، فإن Meta لا تسمح للمنظمات أو الأفراد الذين يتبنون مهمات تنطوي على أعمال عنف أو يشاركون في أعمال عنف بالتواجد على منصاتها. ويحظر معيار المجتمع "المحتوى الذي يمجد الأحداث التي تصنفها Meta على أنها أحداث عنف مخالفة أو يدعمها أو يمثلها"، بما في ذلك الهجمات الإرهابية. ولا يسمح كذلك بأي مما يلي (1) تمجيد مرتكبي مثل هذه الهجمات أو دعمهم أو تمثيلهم؛ أو (2) المحتوى الذي ينشئه الجناة والمتعلق بمثل هذه الهجمات؛ أو (3) الصور المنشورة بواسطة جهات خارجية والتي تصور لحظة وقوع مثل هذه الهجمات على ضحايا ظاهرين،" (التشديد مُضاف). ويقدم معيار المجتمع الأمثلة التالية لأحداث العنف المخالفة: "الهجمات الإرهابية أو أحداث الكراهية أو أعمال العنف متعددة الضحايا أو محاولات ارتكاب أعمال عنف متعددة الضحايا، أو جرائم القتل المتسلسل أو جرائم الكراهية". ومع ذلك، فإنه لا يوفر معايير محددة للتسمية أو قائمة بالأحداث المُصنّفة.

وفقًا للإرشادات الداخلية للمراجعين، تقوم Meta بإزالة الصور التي تصور لحظة الهجمات على الضحايا الظاهرين "بصرف النظر عن سياق المشاركة".

معيار مجتمع المحتوى العنيف والصادم

تنص مبادئ سياسة المحتوى العنيف والصادم على أن الشركة تدرك أن الأشخاص "لديهم حساسيات مختلفة فيما يتعلق بالصور العنيفة والصادمة"، وأن Meta تزيل معظم المحتوى الصادم، وتقوم أيضًا بإضافة تحذير إلى المحتويات الصادمة الأخرى لتحذير الأشخاص. وتسمح هذه السياسة، من خلال استخدام شاشة تحذيرية بعنوان "تمييز كمزعج"، "بالصور (مقاطع الفيديو والصور الثابتة) التي تعرض موت الشخص بشكل عنيف (بما في ذلك لحظة وفاته أو ما بعدها) أو شخصًا يمر بحدث يهدد حياته". وتحظر السياسة مثل هذه الصور عندما تعرض حالات البتر أو ظهور الأحشاء الداخلية أو الحرق أو عمليات الذبح.

استثناء الأهمية الإخبارية

في ظروف معينة، ستسمح الشركة بالإبقاء على المحتوى الذي قد ينتهك سياساتها على المنصة إذا كان "يستحق النشر وإذا كان الإبقاء عليه يصب في المصلحة العامة". عند اتخاذ القرار، "[ستقوم Meta] بالتقييم لتحديد ما إذا كان هذا المحتوى ينطوي على تهديد وشيك للصحة أو السلامة العامة أو يعبر عن وجهات نظر تتم مناقشتها حاليًا كجزء من عملية سياسية". ويستند التحليل إلى الظروف الخاصة بكل دولة، مع مراعاة طبيعة الخطاب والبنية السياسية للدولة المتأثرة. "بالنسبة إلى المحتوى الذي نسمح به والذي قد يكون حساسًا أو مزعجًا، نقوم بتغطيته بشاشة تحذيرية. في هذه الحالات، يمكننا أيضًا تقييد إمكانية مشاهدة المحتوى لتقتصر على البالغين بعمر 18 عامًا فأكثر. ويمكن تطبيق استثناء الأهمية الإخبارية على نطاق "ضيق"، حيث يتم تطبيق الاستثناء على عنصر محتوى واحد أو يمكن تطبيقه على نطاق "واسع" وبهذا يمكن تطبيقه بشكل أوسع على شيء مثل العبارات".

2. المعلومات المقدَّمة من Meta

تبيَّن لشركة Meta أن جميع المنشورات الثلاثة انتهكت سياستها بشأن ""المنظمات الخطرة والأفراد الخطرون""، والتي تحظر الصور المنشورة بواسطة جهات خارجية والتي تصور لحظة مثل هذه الهجمات على ضحايا ظاهرين. كما تبيَّن لـ Meta أن "إزالة هذا المحتوى من شأنه المساهمة في الحد من السلوكيات المُقلّدة وتجنُّب انتشار المحتوى الذي قد يرفع من شأن الجاني ويمنحه قيمة دعائية". وبالإضافة إلى ذلك، تهدف الشركة إلى "حماية كرامة أي ضحايا لم يوافقوا على أن يكونوا مادة دسمة لفضول الجمهور واهتمام وسائل الإعلام". وبحسب Meta، وكما هو الأمر مع جميع منتديات السياسة، ستراعي الشركة مجموعة من المصادر عند اتخاذ القرار، بما في ذلك البحث الأكاديمي، وتعليقات أصحاب المصلحة الخارجيين، ورؤى فرق السياسة الداخلية والتشغيلية.

أوضحت Meta أيضًا أنها ستسمح بمثل هذا المحتوى المخالف بموجب استثناء الأهمية الإخبارية على أساس محدود. ومع ذلك، في هذه الحالات الثلاث، لم تطبق الشركة هذا الاستثناء لأنها توصلت إلى أن قيمة المصلحة العامة المتمثلة في السماح بنشر المحتوى لا تفوق مخاطر وقوع الضرر. وأخذت Meta في اعتبارها حقيقة كشف اللقطات عن ضحايا ظاهرين، وأنه تمت مشاركتها بعد وقت قصير من الهجمات. ومن وجهة نظرها، فإن عرض هذه اللقطات لم يكن ضروريًا للإدانة أو تعزيز مستوى الوعي.

تدرك Meta أن إزالة هذا النوع من المحتوى بصرف النظر عن السياق "يمكن أن تخاطر بالإفراط في الإنفاذ بشأن الخطاب وقد تحُد من المعلومات والوعي حول الأحداث ذات الاهتمام العام، خاصةً عندما تقترن بتعليقات تُدين مثل هذه الهجمات أو ترفع مستوى الوعي بشأنها أو تناقشها بشكل محايد". ويتمثل النهج الافتراضي الحالي في قيام الشركة بإعداد بنوك خدمات مطابقة الوسائط (MMS) لإزالة كل المحتوى الذي يطابق المحتوى المُخزّن، بصرف النظر عن الشرح التوضيحي، بدون تطبيق إنذار. ويمنع هذا النهج نشر المحتوى المسيء دون تطبيق عقوبة، مع الاعتراف بأن العديد من المستخدمين قد يشاركون صور الأزمة لأسباب مشروعة أو بدون دوافع سيئة. وأجرت Meta عملية رسمية لتطوير السياسات فيما يتعلق بصور الهجمات العنيفة المُصنّفة، بما في ذلك مقاطع الفيديو التي تصور الهجمات الإرهابية. وانتهت تلك العملية هذا العام، وذلك بعد نشر المحتوى في هذه الحالات الثلاث. ونتيجة لهذه العملية، اعتمدت Meta النهج التالي: بعد تحديد حدث ما، ستقوم Meta بإزالة جميع صور الحدث المخالفة (التي تم إنشاؤها بواسطة الجناة أو جهات خارجية والتي تُظهر لحظات الهجمات على الضحايا) دون توجيه إنذارات في جميع سياقات المشاركة لفترات أطول مقارنةً بالبروتوكول الحالي. وبعد هذه الفترة، ستتم إزالة الصور فقط التي تمت مشاركتها بهدف التمجيد أو الدعم أو التمثيل وستتلقى إنذارًا صارمًا. وذكرت الشركة أن هذا النهج هو أقل الوسائل المتاحة تقييدًا للتخفيف من الأضرار التي تلحق بحقوق الآخرين، بما في ذلك الحق في الخصوصية وحماية كرامة الضحايا وعائلاتهم.

طرح المجلس أسئلة على Meta حول ما إذا كانت الشركة قد أخذت في الاعتبار التأثير في الدول ذات البيئات الإعلامية المغلقة بشأن حظر جميع صور الجناة والجهات الخارجية للحظات الهجمات على الضحايا الظاهرين، وما إذا كانت هناك أدوات سياسية في بروتوكول سياسة الأزمات ذات صلة بأحداث مُصنّفة، ونتائج عملية تطوير سياسات Meta بشأن صور الأحداث المُصنّفة. وقدَّمت Meta إجابات على جميع الأسئلة.

4. التعليقات العامة

تلقى مجلس الإشراف ستة تعليقات عامة استوفت شروط إرسال التعليقات. خمسة من هذه التعليقات من الولايات المتحدة وكندا وتعليق واحد من غرب أفريقيا. وللاطلاع على التعليقات العامة المقدمة التي وافق أصحابها على نشرها، انقر هنا.

تناولت التعليقات المقدمة المواضيع التالية: مخاطر المبالغة في الإنفاذ، واستخدام مقاطع الفيديو الصادمة المنشورة بواسطة كيانات مُصنّفة ومخاطر التطرف، والأضرار النفسية الناجمة عن انتشار المحتوى الصادم، والتحدي المتمثل في التمييز بين اللقطات المنشورة بواسطة الجناة والجهات الخارجية، وأهمية وسائل التواصل الاجتماعي للحصول على المعلومات في الوقت المناسب في فترات الأزمات، وقيمة توثيق هذا المحتوى بواسطة الجمهور والصحفيين والباحثين، وخيار الشاشات التحذيرية المقيدة بسن، والحاجة إلى توضيح التعريفات في سياستي "المنظمات الخطرة والأفراد الخطرون" و"المحتوى العنيف والصادم".

5. تحليل مجلس الإشراف

قام المجلس بتحليل قرارات Meta في هذه الحالات في ضوء سياسات المحتوى التي تتبعها الشركة، وقيمها، ومسؤولياتها تجاه حقوق الإنسان. وأجرى المجلس أيضًا تقييمًا للآثار المترتبة على هاتين الحالتين فيما يتعلق بنهج Meta الأوسع لإدارة المحتوى.

5.1 الامتثال لسياسات المحتوى لدى Meta

1. قواعد المحتوى

يتضح للمجلس أن جميع المنشورات الثلاثة (مقطعي فيديو وصورة واحدة) تنتهك حظر Meta بشأن "الصور المنشورة بواسطة جهات خارجية تصور لحظة الهجمات [المُصنّفة] على الضحايا الظاهرين". وكانت Meta قد صنّفت هجوم 22 مارس الذي وقع في موسكو ضمن سياسة "المنظمات الخطرة والأفراد الخطرون" قبل مشاركة المنشورات. وتحظر القاعدة، كما هو منصوص عليه في معيار المجتمع وموضح بشكل أكبر في الإرشادات الداخلية، جميع لقطات الهجمات بصرف النظر عن السياق أو الشرح التوضيحي المستخدَم (راجع قرار الرهائن الإسرائيليون).

أظهر الفيديو أفرادًا مسلحين أثناء قيامهم بإطلاق النار على أشخاص عزل من مسافة قريبة، وكان بعض الضحايا يفترشون الأرض بينما فرّ آخرون. وتضمّن الفيديو صوت إطلاق نار وأصوات صراخ الناس. وسجّل المنشور الثالث نفس الحدث في صورة ثابتة. وفي حين أن المنشورات الثلاثة كانت إما تقوم بالإبلاغ عن الهجمات أو تعزيز مستوى الوعي بها أو إدانتها، إلا أن Meta لا تطبق استثناءها بشأن هذه الحالات بموجب الحظر المفروض على الصور المنشورة بواسطة جهات خارجية للحظات الهجمات على الضحايا الظاهرين.

على الرغم من ذلك، تبيَّن لأغلبية أعضاء المجلس أن جميع المنشورات الثلاث تقع تمامًا ضمن ما يهدف استثناء الأهمية الإخبارية إلى حمايته. ويصور المحتوى حدثًا تصدَّر الصفحات الأولى للأخبار في جميع أنحاء العالم. وتمت مشاركة جميع أجزاء المحتوى بعد وقت قصير من الهجوم، وتضمنت معلومات مخصصة للجمهور. وخلال هذا الوقت، عندما انتشرت الحقائق بشأن ما حدث، ومن قد يكون مسؤولاً عنه، وكيف كان رد الحكومة الروسية، والتي تُعد كلها موضوعات للنقاش والنقاش المُلح، كانت قيمة المصلحة العامة لهذا المحتوى عالية بشكل ملحوظ. فمثل هذه الصور ومقاطع الفيديو تسمح للمواطنين في جميع أنحاء العالم بتكوين انطباعاتهم الخاصة عن الأحداث دون الحاجة إلى الاعتماد بشكل كامل على المحتوى الذي تمت تصفيته بواسطة الحكومات أو وسائل الإعلام أو غيرها من المنافذ. ويراعي المجلس الافتقار إلى حرية وسائل الإعلام في روسيا وتأثير ذلك على الوصول إلى المعلومات المرتبطة بتحليله، وهو ما يؤكد على أهمية المحتوى الذي يمكن أن يساعد في تسهيل الوصول إلى جمهور مُطّلع. إن حقيقة ظهور الضحايا، ولكن دون إمكانية التعرف عليهم، في جميع المنشورات الثلاثة تساعد على زيادة اتجاه هذا المحتوى إلى اتجاه المصلحة العامة، وذلك مقارنةً بمصالح الخصوصية والكرامة المعرضة للخطر. ولمزيد من التحليل ووجهة نظر الأقلية ذات الصلة بقرار المجلس، راجع قسم حقوق الإنسان أدناه.

2. الشفافية

بحسب Meta، تمتلك الشركة مجموعة من أدوات بروتوكول سياسة الأزمات لمعالجة "الإفراط في الإنفاذ حسب الحاجة في حالات الأزمات". ومع ذلك، فإنها لم تستخدم هذه الأدوات لأنه لم يتم تصنيف الهجوم في موسكو على أنه أزمة بموجب البروتوكول. وأنشأت شركة Meta بروتوكول سياسة الأزمات استجابةً لتوصية من المجلس بضرورة قيامها بتطوير ونشر سياسة تحكم استجابة الشركة في حالات الأزمات أو المواقف الجديدة ( تعليق حسابات الرئيس الأسبق ترامب، التوصية رقم 19). وطلب المجلس من Meta بعد ذلك نشر المزيد من المعلومات حول بروتوكول سياسة الأزمات (مكتب تيجراي لشؤون الاتصالات، التوصية رقم 1). وكاستجابة لذلك، قامت Meta بنشر هذا التوضيح في مركز الشفافية التابع لها، ولكنها استمرت في رفض مشاركة البروتوكول بالكامل على الملأ. ويرى المجلس أن الشرح القصير الذي تمت مشاركته على الملأ لا يمنح الفرصة الكافية للمجلس والمستخدمين والجمهور لفهم بروتوكول سياسة الأزمات. وقد أكد المجلس بالفعل على أهمية هذا البروتوكول لضمان استجابة Meta الفعّالة والمتسقة للأزمات وحالات النزاع. يحدد "إعلان المبادئ لإدارة المحتوى والمنصات في أوقات الأزمات" لعام 2022، والذي طورته المنظمات غير الحكومية Access Now وArticle 19 وMnemonic وthe Center of Democracy and Technology وJustPeace Labs وDigital Security Lab Ukraine وCenter for Democracy and Rule of Law (CEDEM) وthe Myanmar Internet Project، تطوير بروتوكول الأزمات كأداة رئيسية لإدارة المحتوى بشكل فعّال أثناء الأزمات. ومع ذلك، يجهل المجلس والجمهور سبب عدم تطبيق بروتوكول سياسة الأزمات على هذه الحالة، وكيف كان من الممكن أن تختلف معالجة المحتوى لو تم تطبيقه. لذلك، لا بد من وجود قدر أكبر من الشفافية حول توقيت وكيفية استخدام البروتوكول ونتائج عمليات التدقيق والتقييمات التي تجريها الشركة حول فعّالية البروتوكول وأي تغييرات على السياسات أو الأنظمة التي تعالج أوجه القصور المحددة. وبحسب مبادئ الأمم المتحدة التوجيهية بشأن الأعمال التجارية وحقوق الإنسان (UNGP)، يجب على الشركات "تتبع فعّالية [إجراءات التصدي] التي تتخذها" (المبدأ 20) و"إيصال ذلك إلى خارجها" " (المبدأ 21). وبدون مثل هذه الإفصاحات، يستحيل على المجلس أو قاعدة مستخدمي Meta أو المجتمع المدني فهم مدى نجاح عمل البروتوكول أو كيفية تعزيز فعّاليته.

5.2 الامتثال لمسؤوليات شركة Meta تجاه حقوق الإنسان

تبيَّن للمجلس أنه على الرغم من أن المنشورات تنتهك سياسة Meta بشأن "المنظمات الخطرة والأفراد الخطرون"، فإن إزالة هذا المحتوى لم تكن متوافقة مع سياسات Meta أو التزامها بقيمة الصوت أو مسؤولياتها تجاه حقوق الإنسان.

حرية التعبير (المادة 19 من العهد الدولي الخاص بالحقوق المدنية والسياسية)

في 16 مارس 2021، أعلنت Meta عن سياسة حقوق الإنسان الخاصة بالشركة، التي أوضحت من خلالها التزامها تجاه احترام الحقوق على نحو يتفق مع مبادئ الأمم المتحدة التوجيهية بشأن الأعمال التجارية وحقوق الإنسان (UNGP). وتُرسي مبادئ الأمم المتحدة التوجيهية بشأن الأعمال التجارية وحقوق الإنسان، التي أقرها مجلس حقوق الإنسان التابع للأمم المتحدة عام 2011، إطار عمل تطوعي لمسؤوليات الأنشطة التجارية الخاصة فيما يتعلق بحقوق الإنسان. وتعني هذه المسؤوليات، من بين أمور أخرى، أنه يتعين على الشركات "تجنب انتهاك حقوق الإنسان الخاصة بالآخرين ومعالجة ما تقع فيه من آثار ضارة بهذه الحقوق،" (المبدأ 11، مبادئ الأمم المتحدة التوجيهية بشأن الأعمال التجارية وحقوق الإنسان). ويتوقع من الشركات: "(أ) أن تتجنب التسبب في الآثار الضارة بحقوق الإنسان أو المساهمة فيها من خلال الأنشطة التي تضطلع بها، وأن تعالج هذه الآثار عند وقوعها؛ و(ب) أن تسعى إلى منع الآثار الضارة بحقوق الإنسان التي ترتبط ارتباطًا مباشرًا بعملياتها أو منتجاتها أو خدماتها في إطار علاقاتها التجارية، حتى عندما لا تسهم في هذه الآثار،" (المبدأ 13، مبادئ الأمم المتحدة التوجيهية بشأن الأعمال التجارية وحقوق الإنسان).

قد تتسبب ممارسات Meta للإشراف على المحتوى في ترك آثار سلبية على الحق في حرية التعبير. توفر المادة 19 من العهد الدولي الخاص بالحقوق المدنية والسياسية (ICCPR) حماية واسعة لهذا الحق، نظرًا لأهميته للخطاب السياسي، وقد أشارت لجنة حقوق الإنسان أنها تحمي أيضًا التعبير الذي قد يعتبر "مسيئًا للغاية" ( التعليق العام رقم 34، الفقرات 11 و13 و38). وعند فرض الدولة لقيود على حرية التعبير، يجب أن تفي تلك القيود بمتطلبات الشرعية والهدف المشروع والضرورة والتناسب (الفقرة 3، المادة 19، العهد الدولي الخاص بالحقوق المدنية والسياسية). وتتم الإشارة إلى هذه المتطلبات غالبًا باسم "الاختبار الثلاثي". ويستخدم المجلس إطار العمل هذا لتفسير التزامات Meta الطوعية تجاه حقوق الإنسان، سواء فيما يتعلق بقرارات المحتوى الفردي الذي يخضع للمراجعة ونهج Meta الأوسع تجاه إدارة المحتوى. وكما ذكر مقرر الأمم المتحدة الخاص المعني بحرية الرأي والتعبير على الرغم من أن "الشركات لا تتحمل التزامات الحكومات، لكن تأثيرها يتطلب منها تقييم نفس النوع من الأسئلة المتعلقة بحماية حقوق مستخدميها في حرية التعبير،"( A/74/486، الفقرة 41).

1. الشرعية (وضوح القواعد وسهولة الوصول إليها)

يتطلب مبدأ الشرعية أن تكون القواعد التي تقيِّد حرية التعبير واضحة ويسهُل الوصول إليها، وأن تصاغ بدقة كافية لتمكين الأشخاص من ضبط سلوكهم تبعًا لها (التعليق العام رقم 34، الفقرة 25). وعلاوة على ذلك، فإن هذه القواعد "لا يجوز أن تمنح الأشخاص المسؤولين عن تنفيذها سلطة تقديرية مطلقة في تقييد حرية التعبير" ويجب أن "تنص على توجيهات كافية للمكلفين بتنفيذها لتمكينهم من التحقق على النحو المناسب من أنواع التعبير التي تخضع للتقييد وتلك التي لا تخضع لهذا التقييد،" ( المرجع نفسه ). وذكر مقرر الأمم المتحدة الخاص المعني بحرية التعبير أنه عند تطبيق ذلك على قيام الجهات الفاعلة الخاصة بحوكمة الخطاب على الإنترنت، يجب أن تكون القواعد واضحة ومحددة (A/HRC/38/35، الفقرة 46). إذ ينبغي أن يتمكن الأشخاص الذين يستخدمون منصات Meta من الوصول إلى هذه القواعد وفهمها كما ينبغي أن تتوافر لمراجعي المحتوى توجيهات واضحة فيما يتعلق بإنفاذها.

تبيَّن للمجلس أن الوضع الحالي للقاعدة بشأن لقطات أحداث العنف المخالفة بموجب سياسة "المنظمات الخطرة والأفراد الخطرون" من المحتمل أن يضع المستخدمين في حيرة. وينص قسم "نحرص على إزالة ما يلي" في السياسة على ما يلي: "نحرص على إزالة تمجيد الكيانات التي تندرج ضمن الفئة الأولى والفئة الثانية وكذلك الأحداث المُصنّفة. وبالنسبة إلى الكيانات التي تندرج ضمن الفئة الأولى والأحداث المُصنّفة، يجوز لنا أيضًا إزالة الإشارات غير الواضحة أو الإشارات التي لا يتوفر لها سياق إذا لم تتم الإشارة بوضوح إلى نية المستخدم". يظهر السطر الذي يشرح على وجه التحديد الحظر المفروض على الصور التي ينشئها الجناة والصور المنشورة بواسطة جهات خارجية (والتي تعد سياسة منفصلة عمّا ورد أعلاه) في "مبادئ السياسة" والقسم الذي يحمل علامة "أنواع المنظمات الخطرة وفئاتها" ضمن معيار المجتمع. وتشير اللغة في قسم "نحرص على إزالة ما يلي" إلى أنه مسموح بالإدانة والتقارير الإخبارية، في حين أنه تنص اللغة في الأقسام الأخرى (مبادئ السياسة وأنواعها/فئاتها) على حظر الصور التي يتم إنشاؤها بواسطة الجناة والصور المنشورة بواسطة جهات خارجية للحظات الهجمات على الضحايا الظاهرين، ولا تنص على أن Meta ستزيل هذا المحتوى بصرف النظر عن الدافع أو الإطار الذي تتم فيه مشاركة المحتوى (على سبيل المثال، الإدانة أو تعزيز مستوى الوعي). إن وضع القاعدة والافتقار إلى الوضوح في نطاق الاستثناءات المطبقة يخلق حيرة لا داعي لها. ويجب على Meta نقل القاعدة الخاصة بلقطات الأحداث المُصنّفة ضمن قسم "نحرص على إزالة ما يلي"؛ وبالتالي إنشاء قسم جديد للأحداث العنيفة المخالفة.

2. الهدف المشروع

تهدف سياسة "المنظمات الخطرة والأفراد الخطرون" في شركة Meta إلى "منع الأعمال التي من شأنها إلحاق أضرار فعلية على أرض الواقع وإيقافها". وفي عدة قرارات، تبيَّن للمجلس أن هذه السياسة تسعى إلى تحقيق الهدف المشروع المتمثل في حماية حقوق الآخرين، مثل الحق في الحياة (العهد الدولي الخاص بالحقوق المدنية والسياسية، المادة 6) والحق في عدم التمييز والمساواة (العهد الدولي الخاص بالحقوق المدنية والسياسية، المادتان 2 و26)، لأنها تغطي المنظمات التي تروّج للكراهية والعنف والتمييز فضلاً عن الأحداث التي يتقرر أنها تنطوي على عنف بدافع الكراهية. راجع قرارات الإشارة إلى الأفراد المُصنّفين كأفراد خطرين بكلمة "شهيد" وفيديو أسير قوات الدعم السريع السودانية والرهائن الإسرائيليون والحملة الانتخابية اليونانية لعام 2023. وتسعى سياسات Meta أيضًا إلى تحقيق الهدف المشروع المتمثل في حماية الحق في الخصوصية للضحايا الذين يمكن التعرف عليهم وعائلاتهم (راجع قرار فيديو بعد حدوث هجوم على كنيسة في نيجيريا).

3. الضرورة والتناسب

بموجب المادة 19(3) من العهد الدولي الخاص بالحقوق المدنية والسياسية، فإن الضرورة والتناسب يتطلبان أن تكون القيود المفروضة على حرية التعبير "مناسبة لتحقيق وظيفة الحماية المنوطة بها، ويجب أن تكون أقل الوسائل تدخلاً مقارنة بغيرها من الوسائل التي يمكن أن تحقق النتيجة المنشودة؛ ويجب أن تكون متناسبة مع المصلحة التي ستحميها" (التعليق العام رقم 34، الفقرة 34).

في هذه الحالات الثلاثة، تبيَّن لأغلبية أعضاء المجلس أنه لا يوجد خطر واضح وفعلي من أن تؤدي هذه المنشورات الثلاثة إلى التطرف والتحريض على العنف. يحتوي كل منشور على لغة واضحة تدين الهجوم، وتظهر التضامن مع الضحايا أو تهتم لأمرهم، وتسعى إلى توعية الجمهور. وتم نشر مقاطع الفيديو مباشرةً بعد الهجوم مع شرح توضيحي للمنشور الأول يُظهر بوضوح الدعم للضحايا ويشير إلى أن الشخص الذي نشر المحتوى كان يفعل ذلك بهدف مشاركة المعلومات لفهم ما حدث بشكل أفضل. وأعرب صاحب المنشور الثاني عن تضامنه مع الضحايا في روسيا، كما أدان أعمال العنف. أما المنشور الثالث فقد قدّم معلومات وكذلك صورة ثابتة ومقطع فيديو قصير للإفادة بأنه لم يعلن أحد مسؤوليته بعد، وأن أوكرانيا نفت علاقتها بالهجوم، وهو محتوى يتعارض مع الدعاية التي تنشرها وسائل الإعلام الحكومية الروسية على نطاق واسع. إن إخفاء محتوى متعلق بأمور ذات أهمية عام بالغ تحت ذريعة مخاوف لا أساس لها قد تشجع على التطرف لا يتوافق مع مسؤوليات Meta تجاه حرية التعبير، خاصةً عندما شاهد ملايين الأشخاص نفس اللقطات مصحوبة بادعاءات بأن أوكرانيا هي من تقف بشكل جزئي وراء الهجوم. ويشير المجلس إلى أهمية الحفاظ على إمكانية الوصول إلى المعلومات أثناء الأزمات وفي حالات مثل البيئة الإعلامية المغلقة في روسيا، حيث يعتمد الأشخاص على وسائل التواصل الاجتماعي للحصول على المعلومات أو تعزيز مستوى الوعي بين الجماهير على مستوى العالم.

يوفر السماح بنشر مثل هذه الصور وتغطيتها بشاشة تحذيرية، بموجب معيار مجتمع Meta بشأن المحتوى العنيف والصادم، وسيلة أقل تقييدًا لحماية حقوق الآخرين (راجع تحليل الوسائل الأقل تقييدًا بالكامل أدناه). وتسمح تلك السياسة، من خلال شاشة تحذيرية بعنوان "تمييز كمزعج"، "بالصور (مقاطع الفيديو والصور الثابتة) التي تعرض موت الشخص بشكل عنيف (بما في ذلك لحظة وفاته أو ما بعدها) أو شخصًا يمر بحدث يهدد حياته".

إضافة إلى ذلك، وكما أكد المجلس سابقًا، عندما يتم التعرف على ضحايا هذا العنف في الصورة، فإن المحتوى "يتعلق بشكل مباشر بحقوق الخصوصية وحقوق عائلاتهم" (راجع قرار فيديو بعد حدوث هجوم على كنيسة في نيجيريا. وفي هذا القرار، الذي أظهر فيه المحتوى العواقب المروعة لهجوم إرهابي، قررت أغلبية أعضاء المجلس أن إزالة المحتوى لم تكن ضرورية أو متناسبة، وبالتالي تمت استعادة المنشور مع شاشة تحذيرية مقيدة بسن. إن اللقطات محل النقاش في هذه المنشورات الثلاثة ليست عالية الدقة، ومنفذو الهجوم والأشخاص الذين تم إطلاق النار عليهم ظاهرون ولكن لا يمكن التعرف عليهم بسهولة. وفي ظروف معينة، ستكون إزالة المحتوى الذي يصور ضحايا يمكن التعرف عليهم هو الإجراء الضروري والمتناسب (على سبيل المثال، في النزاعات المسلحة عندما يكون الضحايا أسرى حرب أو رهائن يخضعون لحماية خاصة بموجب القانون الدولي). ومع ذلك، في هذه الحالات الثلاثة، نظرًا لأنه لا يمكن التعرف على الضحايا بسهولة، أو النظر إليهم بطريقة مهينة أو مخزية، فإن استعادة المنشورات مع تغطيتها بشاشة تحذيرية مقيدة بسن يُعد أكثر اتساقًا مع مسؤوليات Meta تجاه حقوق الإنسان.

ولا توافق أقلية من أعضاء المجلس على ذلك وتؤيد قرار Meta بإزالة المنشورات الثلاثة من فيسبوك. تتفق الأقلية على أن المحتوى في هذه الحالة، أي المحتوى الذي التقطه شخص ما في موقع الحادث وشاركه للإبلاغ عن الهجوم أو إدانته، ليس من المرجح أن يحرض على العنف أو يشجع على التطرف. ومع ذلك، بالنسبة إلى الأقلية، فإن طبيعة اللقطات الصادمة مصحوبةً بأصوات إطلاق النار وصراخ الضحايا، وذلك في ظل أنها تُظهر لحظة الهجوم، أي مصرع الضحايا الظاهرين إن لم يكن من السهل التعرف عليهم، تعني أن خصوصية وكرامة الضحايا وأسرهم تجعل من الضروري إزالة تلك اللقطات. وفي أعقاب الهجمات الإرهابية، عندما تنتشر لقطات العنف بسرعة وعلى نطاق واسع، ويمكن أن تتسبب مجددًا في حدوث صدمة للناجين وعائلات الضحايا، فإن الأقلية ترى أنه هناك مبررات لصالح Meta في منح الأولوية لخصوصية وكرامة الضحايا وعائلاتهم على حساب قيمة المصلحة العامة المتمثلة في السماح للمواطنين بالوصول إلى المحتوى الجدير بالنشر. بالنسبة إلى الأقلية، فإن استثناء الأهمية الإخبارية للمحتوى تعيق الإبقاء عليه على المنصة. وتؤكد الأقلية أن هجوم 22 مارس قد حظي بتغطية واسعة النطاق في روسيا وكذلك بواسطة وسائل الإعلام العالمية. لذلك، ومن وجهة نظر الأقلية، فإن السماح بهذه اللقطات على منصات Meta لم يكن ضروريًا لضمان الوصول إلى المعلومات حول الهجوم. وكان بإمكان المستخدمين الذين أرادوا التعليق على الهجوم أو الاعتراض على رواية الحكومة التي تنسب الهجوم إلى أوكرانيا القيام بذلك دون مشاركة اللحظات الصادمة في اللقطات.

يدرك المجلس أنه في إطار تطوير واعتماد سياسته بشأن صور الهجمات الإرهابية خلال عملية تطوير السياسات الأخيرة، أخطأت شركة Meta في جانب السلامة والخصوصية، حيث اعتمدت منطقًا مشابهًا لمنطق الأقلية بشأن العملية الأخيرة. وأوضحت الشركة أن هناك مخاطر السلوك العدائي التي تتمثل على سبيل المثال في إعادة استخدام اللقطات المنشورة بواسطة جهات خارجية من جانب جهات فاعلة تتسم بالعنف، كما أن هناك تحديات إنفاذ تتعلق بالإشراف على المحتوى على نطاق واسع؛ مما يعني أن اتباع نهج أكثر تساهلاً من شأنه أن يفاقم هذه المخاطر. كما سلطت الشركة الضوء على المخاطر التي تهدد خصوصية وكرامة ضحايا هذه الهجمات وعائلاتهم في حالة أن الضحايا ظاهرين. ويسلط تعليق عام مُقدم من المؤتمر اليهودي العالمي الضوء على اعتبارات مماثلة لتلك التي أوضحتها Meta. وبالإشارة إلى انتشار مقاطع الفيديو عبر الإنترنت لهجوم حماس على إسرائيل في 7 أكتوبر 2023، يشير التقرير إلى أنه "في مثل هذه الأحداث، يُشكل تمييز من هو "المتفرج" أو "الجهة الخارجية" معضلة، فالعديد من المتواطئين يصورون المحتوى الإرهابي وينشرونه" (PC-29651).

يقر المجلس بأن تصوير الفيديو والتصوير الفوتوغرافي في العصر الرقمي من الأدوات التي يستخدمها بعض الإرهابيين لتوثيق أعمالهم وتمجيدها. ولكن لا يتم إنشاء كل مقاطع فيديو الهجمات والتي تتضمن كيانات مُصنّفة لهذا الغرض، أو يتم ضبطها لتحقيق هذا التأثير، أو أن يشاهدها المشاهدون على هذا النحو. كما لا يتم إنشاء الصور المنشورة بواسطة الجناة أو مؤيديهم بغرض تمجيد الإرهاب أو الترويج له. وعندما يقوم أحد المارة أو الضحايا أو الصحفيين المستقلين أو كاميرا CCTV بتسجيل الصور، فإن الصور نفسها لا تهدف إلى إثارة العنف أو إثارة الشغب بشكل عام (أي أن اللقطات المسجلة من خلال الكاميرا المثبتة في رأس الجاني تختلف عن اللقطات الملتقطة بواسطة كاميرا CCTV أو أحد المارة). وسوف يجسد فظاعة العنف، ولكن لا يجوز له التقليل من شأن العنف أو الترويج له في المحتوى المصوَّر. وفي حين أن هناك مخاطر من إعادة استخدام صور الهجمات للتشجيع على تمجيد العنف أو الإرهاب والسلوك المُقلّد، يتغاضى الحظر الشامل في ظل غياب دلالات على إعادة الطرح بهذا الشكل عن احتمالية توثيق الهجمات العنيفة بالفيديو لإثارة التعاطف مع الضحايا وتعزيز المساءلة وبناء الوعي العام بشأن الأحداث المهمة، والتي من المحتمل أن توجه الغضب أو الازدراء تجاه الجناة، وتنبه الجمهور إلى الطبيعة الوحشية للجماعات والحركات الإرهابية.

في الرأي الاستشاري بشأن سياسات المحتوى بخصوص الإشارة إلى الأفراد المُصنّفين كأفراد خطرين بكلمة "شهيد"، يشير المجلس إلى العديد من قرارات مجلس الأمن التابع للأمم المتحدة التي تدعو الدول إلى التصدي للتحريض على الأعمال الإرهابية وإثارة المخاوف بشأن استخدام المنظمات الإرهابية للإنترنت. راجع قرار مجلس الأمن التابع للأمم المتحدة رقم 1624 (2005)، وقرار مجلس الأمن التابع للأمم المتحدة رقم 2178 (2014) وقرار مجلس الأمن التابع للأمم المتحدة رقم 2396 (2017). يمكن فهم نهج Meta على أنه محاولة لمعالجة هذه المخاوف. ومع ذلك، وكما أشار المجلس أيضًا في ذلك الرأي الاستشاري بشأن سياسات المحتوى، فقد حذر المقرر الخاص للأمم المتحدة المعني بتعزيز وحماية حقوق الإنسان والحريات الأساسية في سياق مكافحة الإرهاب من اعتماد قواعد عامة أكثر من اللازم، وتحدث عن تأثير التركيز على محتوى الخطاب بدلاً من التركيز على "العلاقة السببية أو الخطر الفعلي في أن تحدث النتيجة المحظورة"، (التقرير A/HRC/40/52، الفقرة 37). راجع أيضًا الإعلان المشترك بشأن الإنترنت وتدابير مكافحة الإرهاب الصادر عن المقرر الخاص للأمم المتحدة المعني بحرية التعبير، وممثل منظمة الأمن والتعاون في أوروبا المعني بحرية الإعلام، والمقرر الخاص لمنظمة الدول الأمريكية المعني بحرية التعبير (2005).

يوافق المجلس على أن هناك خطرًا ناجمًا عن احتمالية أن يؤدي إنشاء استثناءات للسياسة إلى عدم إنفاذ المحتوى الذي يصور الهجمات الإرهابية، وإعادة استخدام اللقطات لأغراض خبيثة لن تتمكن Meta من تحديدها وإزالتها بشكل فعّال. ويشيد المجلس بشركة Meta لسعيها إلى معالجة مخاطر استخدام الجهات الفاعلة العنيفة لمنصاتها بهدف تجنيد الأفراد وجعلهم متطرفين، ومعالجة الأضرار التي تلحق بخصوصية الضحايا وكرامتهم. ومع ذلك، وكما توضح المنشورات الثلاثة في هذه الحالات، يمكن لصور الهجمات تعزيز وظائف متعددة مع وجود مخاطر على حرية التعبير والوصول إلى المعلومات والمشاركة العامة من خلال سياسة تخطئ في جانب المبالغة في الإنفاذ، وذلك عندما تتوفر وسائل أقل تقييدًا لتمكين نتيجة أكثر تناسبًا.

عندما تستخدم Meta شاشة تحذيرية مقيدة بسن، لا يكون المحتوى متاحًا للمستخدمين الذين تقل أعمارهم عن 18 عامًا، ويجب على المستخدمين الآخرين النقر لعرض المحتوى، ثم تتم إزالة المحتوى من التوصيات للمستخدمين الذين لا يتابعون الحساب ( راجع قرارات مستشفى الشفاء والرهائن الإسرائيليون). وبإمكان Meta الاعتماد على بنوك MMS لاستخدام شاشة تحذيرية بعنوان "تمييز كمزعج" بشكل تلقائي على كل المحتوى الذي يتضمن صورًا معينة. وقد تساهم هذه الإجراءات في التخفيف من مخاطر انتشار المحتوى على نطاق واسع أو الوصول إلى المستخدمين المعرضين للخطر أو سريعي التأثر بوجه خاص والذين لم يبحثوا عنه في الأساس. وبالتالي، تُقلل الشاشة التحذيرية من احتمالية أن يقدم المحتوى أفكارًا غير مقصود لأفعال مقلّدة. ولا تعمل الشاشة التحذيرية على التخفيف من مخاطر إعادة استخدام المحتالون للقطات بشكل كامل. ومع ذلك، بمجرد التخفيف من مخاطر التفاعل، تستعرض Meta أدوات أخرى أكثر استهدافًا لتحديد حالات قيام المحتالين بإعادة استخدام المحتوى وإزالة مثل هذا المحتوى من المنصة (على سبيل المثال، تبحث الفرق الداخلية بشكل استباقي عن هذا المحتوى وقنوات الشركاء الموثوق بهم). وبالطبع سيتطلب النهج الأكثر استهدافًا موارد إضافية. وبالنظر إلى حجم الموارد لدى Meta وتأثير النهج الحالي على التعبير والوصول إلى المعلومات، يعد استخدام نهج أكثر استهدافًا أمرًا لا غنى عنه.

بإمكان صور الهجمات المساهمة في نقل وإثارة الغضب الأخلاقي، وخلق شعور بالتضامن مع الضحايا، وكذلك توفر آلية لمشاركة المعلومات مع الموجودين على الأرض أو الجماهير في جميع أنحاء العالم. وهناك أيضًا بعض المؤشرات التي تشير إلى وجود اتجاه متزايد نحو تقديم المساعدة أو التعبير عن استجابة عاطفية أقوى من طرف الأشخاص الذين يشاهدون صورة أو مقطع فيديو لضحية معينة مقارنةً بتقديم المعلومات من خلال وصف فقط أو مجرد أرقام. وفي دولة تتسم ببيئة إعلامية مغلقة وتسيطر فيها الحكومة بشكل كبير على المحتوى الذي يشاهده مواطنوها وطريقة طرح هذا المحتوى، فإن إمكانية الوصول إلى المحتوى على وسائل التواصل الاجتماعي في ظل اهتمام قوي بالوعي العام وأهمية المناخ السياسي تعد أمرًا أكثر أهمية. وتوصلت الأغلبية إلى أن حظر وإزالة جميع الصور المنشورة بواسطة جهات خارجية لهجمات على ضحايا ظاهرين ولكن لا يمكن التعرف عليهم شخصيًا، وذلك عند مشاركتها في سياقات التقارير الإخبارية وتعزيز مستوى الوعي والإدانة، ليس إجراءً ضروريًا أو متناسبًا. وعندما يكون الفيديو/الصورة من إنشاء الجناة، أو يُظهر ضحايا يمكن التعرف عليهم شخصيًا في وضع مهين، أو يصور ضحايا معرضين للخطر بشكل خاص (مثل الرهائن أو القاصرين)، أو يفتقر إلى غرض واضح للتوعية أو الإبلاغ أو الإدانة، فقد يكون من المناسب لشركة Meta أن تخطئ قرار الإزالة. لكن القاعدة التي تحظر جميع الصور المنشورة بواسطة جهات خارجية للهجمات على الضحايا الظاهرين، بصرف النظر عن سبب وسياق مشاركة المنشور، تتجنب اتباع نهج أكثر تناسبًا وأقل تقييدًا عندما لا يكون من الواضح أن مثل هذا النهج الصارم يعد ضروريًا.

يجب أن تسمح Meta بعرض صور منشورة بواسطة جهات خارجية، مع إعلان خلالي بعنوان "تمييز كمزعج"، تعرض لحظات الهجمات على ضحايا ظاهرين ولكن لا يمكن التعرف عليهم عند مشاركتها في سياقات التقارير الإخبارية والإدانة. وهو ما يتماشى مع مبادئ سياسة المنظمات الخطرة والأفراد الخطرون، والتي تنص على أنه: تم تصميم سياسات Meta لإتاحة المجال ... للإشارات إلى المنظمات والأفراد المُصنّفين في سياق الخطاب الاجتماعي والسياسي [بما في ذلك] الإبلاغ عن المحتوى أو المناقشة المحايدة أو إدانة المنظمات الخطرة والأفراد الخطرين وأنشطتهم". ومع ذلك، وبالنظر إلى الأنواع المختلفة من الهجمات العنيفة المؤهلة للتصنيف وأن سياق موقف معين قد يمثل مخاطر عالية بوجه خاص لسلوك مُقلّد أو استخدام ضار، يجب على Meta الاستفادة من المراجعة البشرية المتخصصة في تقييم مواقف محددة وإنفاذ استثناء السياسة الذي أوصى به المجلس.

بالنسبة إلى الأقلية، فإن سياسة Meta الحالية التي تحظر جميع صور الهجمات المُصنّفة التي تصور الضحايا الظاهرين تتوافق مع مسؤوليات الشركة تجاه حقوق الإنسان ومبادئ الضرورة والتناسب. وعندما تصور اللقطات الصادمة للهجوم ضحايا ظاهرين، حتى إذا كان من الصعب التعرف على الضحايا، فإن هدف حماية الحق في الخصوصية والكرامة للناجين والضحايا يفوق بكثير قيمة الصوت، وذلك في نظر الأقلية. وحتى المحتوى المسجل بواسطة جهات خارجية يمكن أن يضر بخصوصية وكرامة الضحايا وعائلاتهم. كما أن استخدام شاشة تحذيرية على المحتوى الذي يُظهر وفاة أحد الأشخاص، كما توصي الأغلبية، لا يحمي خصوصية أو كرامة الضحايا أو عائلاتهم ممن يختارون تخطي الشاشة. وذكرت الأقلية في قرار فيديو بعد حدوث هجوم على كنيسة في نيجيريا، عند وقوع هجمات إرهابية، كثيرًا ما تنتشر مقاطع الفيديو من هذا النوع بسرعة كبيرة؛ وهو ما يؤدي إلى تفاقم الضرر وزيادة مخاطر التعرض للصدمة مرة أخرى. ويجب على Meta سرعة التحرك وعلى نطاق واسع من أجل منع وتخفيف الأضرار التي تلحق بحقوق الإنسان للضحايا والناجين وعائلاتهم. ويخدم ذلك أيضًا الغرض العام الأوسع المتمثل في مواجهة الإرهاب المنتشر على نطاق واسع الذي يسعى مرتكبو مثل هذه الهجمات إلى غرسه في المجتمعات، مع العلم أن وسائل التواصل الاجتماعي ستساهم في تضخيم الآثار النفسية الناجمة عن تلك الهجمات. وبالإضافة إلى ذلك، وكما أشار المجلس في قراراته السابقة، يمكن لشركة Meta تخفيف العبء على المستخدمين وتخفيف المخاطر التي تهدد الخصوصية من خلال تزويد المستخدمين بتعليمات أكثر تحديدًا أو الوصول داخل منتجاتها، على سبيل المثال، إلى أدوات تمويه الوجه في مقاطع الفيديو التي تصور ضحايا انتهاكات واضحين. العنف (راجع قرار فيلم وثائقي لمؤسسة إخبارية حول إساءة معاملة الأطفال في باكستان).

6. قرار مجلس الإشراف

ألغى مجلس الإشراف قرارات Meta بإزالة المنشورات الثلاثة، وطلب استعادة المحتوى مع تغطيته بشاشات تحذيرية بعنوان "تمييز كمزعج".

7. التوصيات

سياسة المحتوى

1. لضمان أن معيار المجتمع بشأن "المنظمات الخطرة والأفراد الخطرون" مصمم لتحقيق أهدافه، يجب أن تسمح Meta بعرض صور منشورة بواسطة جهة خارجية، مع تغطية المحتوى بشاشة تحذيرية بعنوان "تمييز كمزعج"، لحدث مُصنّف يعرض لحظة الهجمات على ضحايا ظاهرين ولكن لا يمكن التعرف عليهم بشكل شخصي عند مشاركتها في سياقات التقارير الإخبارية والإدانة وتعزيز مستوى الوعي.

سينظر المجلس في تنفيذ هذه التوصية عندما تقوم Meta بتحديث معيار المجتمع العام بشأن "المنظمات الخطرة والأفراد الخطرون" وفقًا لما ورد أعلاه.

2. لضمان الوضوح، يجب على Meta تضمين قاعدة ضمن قسم "نحرص على إزالة ما يلي" في معيار المجتمع بشأن "المنظمات الخطرة والأفراد الخطرون" ونقل شرح كيفية تعامل Meta مع المحتوى الذي يصور أحداثًا مُصنّفة من قسم مبادئ السياسة إلى هذا القسم.

سيعتبر المجلس أنه قد تم تنفيذ هذه التوصية عندما تقوم Meta بتحديث معيار المجتمع العام بشأن "المنظمات الخطرة والأفراد الخطرون"، حيث تنقل القاعدة الخاصة بلقطات الأحداث المُصنّفة إلى قسم "نحرص على إزالة ما يلي" في السياسة.

*ملاحظة إجرائية:

  • يتم اتخاذ قرارات مجلس الإشراف من قِبَل لجان مكونة من خمسة أعضاء ويتم الموافقة عليها بأغلبية أصوات المجلس بالكامل. ولا يلزم بالضرورة أن تُعبّر قرارات المجلس عن وجهات النظر لجميع الأعضاء.
  • بموجب اتفاقيته، يجوز لمجلس الإشراف مراجعة الطعون المقدمة من المستخدمين الذين قامت Meta بإزالة محتواهم، والطعون المقدمة من المستخدمين الذين أبلغوا عن محتوى قامت Meta بتركه، والقرارات التي أحالتها Meta إليه (المادة 2، القسم 1 من الاتفاقية). وللمجلس سلطة مُلزمة تخوله من تأييد أو إلغاء القرارات التي تتخذها Meta بشأن المحتوى (المادة 3، القسم 5؛ المادة 4 من اتفاقية المجلس). ويجوز للمجلس إصدار توصيات غير ملزمة يجب على شركة Meta الرد عليها (المادة 3، القسم 4، المادة 4). وعندما تلتزم Meta بتنفيذ التوصيات، يراقب المجلس هذا التنفيذ.
  • بالنسبة إلى القرار المتخذ بشأن هذه الحالة، تم إجراء بحث مستقل نيابةً عن المجلس. وقد تلقى المجلس مساعدة من شركة Duco Advisors، وهي شركة تركز على نقطة التقاء الجغرافيا السياسية والثقة والأمان والتكنولوجيا. وقد تم تقديم أبحاث أيضًا بواسطة مجموعة Memetica، وهي مجموعة متخصصة في التحقيقات الرقمية تقدم خدمات استشارية بشأن المخاطر وخدمات استخباراتية بشأن التهديدات للتخفيف من حدة الأضرار على الإنترنت.

العودة إلى قرارات الحالة والآراء الاستشارية المتعلقة بالسياسة