أسقط
الرهائن الإسرائيليون
ألغى المجلس قرار شركة Meta الأصلي بإزالة المحتوى من فيسبوك. يرى المجلس أن استعادة المحتوى إلى المنصة مع تضمين شاشة تحذيرية بعنوان "تمييز كمزعج" يتفق مع سياسات المحتوى لدى Meta وقيمها ومسؤولياتها تجاه حقوق الإنسان.
في الأسابيع التي تلي نشر هذا القرار، سنقوم بتحميل ترجمة باللغة العبرية هنا، وستتوفر ترجمة باللغة العربية من خلال علامة تبويب "اللغة" التي يمكن الوصول إليها من القائمة الموجودة في الجزء العلوي من هذه الشاشة.
לקריאת החלטה זו בעברית יש ללחוץ כאן.
1. الملخص
تتضمن الحالة مقطع فيديو مثير للعواطف إلى درجة كبيرة تظهر به امرأة، أثناء الهجوم الذي شنته حماس في السابع من أكتوبر على إسرائيل والذي تم وصفه كهجوم إرهابي، وهي تتوسل لآسريها رجاء ألا يقتلوها أثناء اقتيادها بعيدًا واصطحابها كرهينة. ويحث الشرح التوضيحي المصاحب الأشخاص على مشاهدة مقطع الفيديو لتكوين فهم أفضل عن الرعب الذي استيقظت عليه إسرائيل يوم السابع من أكتوبر 2023. وقد أزالت أنظمة Meta المؤتمتة المنشور لانتهاك معيار مجتمعها بشأن المنظمات الخطرة والأفراد الخطرين. وقد تقدم المستخدم بطعن على القرار إلى مجلس الإشراف. وبعد أن اختار المجلس الحالة لمراجعتها، أبلغت Meta المجلس أنها أصدرت لاحقًا استثناء لخط السياسة الذي تمت إزالة المحتوى بموجبه، وأعادت المحتوى مصحوبًا بشاشة تحذيرية. ويلغى المجلس قرار Meta الأصلي ويوافق على قرار استعادة المحتوى مع تضمين شاشة تحذيرية لكنه يرفض ما يقترن بذلك من خفض لتصنيف المحتوى على نحو يحول دون ظهوره في التوصيات. تمثل هذه الحالة، إلى جانب حالة مستشفى الشفاء ( 2023-049-IG-UA)، أولى الحالات التي يتبع فيها المجلس إجراءات المراجعة العاجلة لاتخاذ قرار بشأنها.
2. سياق الحالة واستجابة Meta
في 7 أكتوبر 2023، شنت حماس، وهي منظمة مصنَّفة بموجب الفئة الأولى من معيار مجتمع Meta بشأن المنظمات الخطرة والأفراد الخطرين، هجمات غير مسبوقة تم وصفها كهجمات إرهابية على إسرائيل انطلاقًا من قطاع غزة مما أدى إلى مقتل نحو 1200 شخص وأسْر نحو 240 رهينة (وزارة الخارجية، حكومة إسرائيل). وعلى إثر ذلك مباشرةً، نفّذت إسرائيل حملة عسكرية في غزة ردًا على تلك الهجمات. وأودت العمليات العسكرية الإسرائيلية بحياة ما يزيد على 18 ألف شخص في قطاع غزة حتى منتصف ديسمبر 2023 (مكتب الأمم المتحدة لتنسيق الشؤون الإنسانية، من واقع بيانات وزارة الصحة في غزة) في نزاع اتُهم فيه الطرفان بانتهاك القانون الدولي. أصبحت هجمات حماس التي وُصفت بأنها هجمات إرهابية، وما أعقبها من عمليات عسكرية إسرائيلية على حدٍ سواء موضوع دعاية وجدال وتدقيق ونقاش محتدم على مستوى العالم، وكثيرٌ من ذلك شهدته منصات وسائل التواصل الاجتماعي، بما في ذلك Instagram وفيسبوك.
وعلى الفور، قامت Meta بتصنيف أحداث السابع من أكتوبر هجومًا إرهابيًا بموجب سياستها بشأن المنظمات الخطرة والأفراد الخطرين. وهذا بموجب معيار مجتمعها يعني أن Meta ستزيل أي محتوى على منصاتها "يمجِّد أو يؤيد بشدة أو يمثِّل" هجمات السابع من أكتوبر أو مرتكبيها. وستزيل أيضًا المحتوى الذي ينشئه الجناة والمتعلق بمثل هذه الهجمات؛ وصور ومقاطع فيديو الجهات الخارجية التي تصوّر لحظة وقوع مثل هذه الهجمات على ضحايا واضحين.
واستجابةً للزيادة الاستثنائية في المحتوى العنيف والصادم الذي نُشر على منصاتها في أعقاب تلك الهجمات التي وُصفت بأنها هجمات إرهابية ورد الفعل العسكري حيالها، عمدت Meta إلى اتخاذ عدة تدابير مؤقتة بما في ذلك خفض حدود الثقة في أنظمة التصنيف التلقائي (أدوات التصنيف) لسياساتها بشأن الخطاب الذي يحض على الكراهية والعنف والتحريض والإساءة والمضايقة والتي تعمل على اكتشاف المحتوى وإزالته. وأبلغت Meta المجلس بتطبيق هذه التدابير على المحتوى الصادر من إسرائيل وغزة بجميع اللغات. أدت التغييرات التي أُدخلت على أدوات التصنيف هذه إلى زيادة معدلات الإزالة التلقائية للمحتوى عند انخفاض مستوى الثقة فيما يتعلق بالمحتوى المخالف لسياسات Meta. بعبارة أخرى، استخدمت Meta أدواتها التلقائية على نحوٍ أكثر حِدة لإزالة المحتوى الذي قد يكون محظورًا. وقد فعلت Meta ذلك من منطلق رغبتها في إعطاء الأولوية لقيمة السلامة، وبذلك أُزيلت عناصر محتوى أكثر مما كانت ستُزال بموجب حد الثقة الأعلى الذي كان مطبقًا قبل 7 أكتوبر. وعلى الرغم من أن ذلك قد قلل من احتمالية إخفاق Meta في إزالة المحتوى المخالف الذي ربما تفادى الاكتشاف بطريقة أو بأخرى أو بسبب محدودية السعة الاستيعابية للمراجعة البشرية، فقد تسبب أيضًا في تعزيز احتمالية قيام Meta عن طريق الخطأ بإزالة محتوى غير مخالف يتعلق بالنزاع.
عندما أجْرَت فرق التصعيد تقييمًا لمقاطع الفيديو باعتبارها مخالفة لسياسات المحتوى العنيف والصادم والعنف والتحريض وسياسات المنظمات الخطرة والأفراد الخطرين، اعتمدت Meta على بنوك خدمة مطابقة الوسائط في الإزالة التلقائية لمقاطع الفيديو المطابقة. وقد أثار هذا النَهْج مخاوف بشأن فرط الإنفاذ، بما في ذلك الأشخاص الذين يواجهون فرض قيود على حساباتهم أو تعليقها بعد ارتكاب عدة مخالفات لسياسات المحتوى لدى Meta (ويشار إلى ذلك أحيانًا باسم "سِجن فيسبوك"). ورغبةً منها في التخفيف من حدة هذه المخاوف، لم تفرض Meta "الإنذارات" التي عادةً ما كانت تصاحب الإزالة التلقائية التي تتم استنادًا إلى بنوك خدمة مطابقة الوسائط (مثلما أعلنت Meta في منشور بغرفة الأخبار الخاصة بها).
ويقتصر تطبيق تغييرات Meta فيما يتعلق بحدود الثقة في أداة التصنيف وسياسة الإنذارات لديها على النزاع الدائر بين إسرائيل وغزة ومن المقرر العمل بهذه التغييرات لفترة مؤقتة. وحتى 11 ديسمبر 2023، لم تكن Meta قد أعادت حدود الثقة إلى مستويات ما قبل 7 أكتوبر.
3. وصف الحالة
تتضمن هذه الحالة مقطع فيديو لهجمات السابع من أكتوبر يصوّر امرأة تتوسل إلى آسريها رجاء ألا يقتلوها أثناء أخذها كرهينة واصطحابها على دراجة نارية. وقد شوهدت المرأة وهي تجلس خلف قائد المركبة، وهي تمد يدها وتتوسل للحفاظ على حياتها. ويعرض الفيديو بعد ذلك رجلاً، يبدو أنه رهينة أخرى، أثناء اقتياده من قِبل من قاموا بأسره. ولم يتم حجب وجوه الرهائن ولا آسريهم وبالتالي يمكن التعرف عليهم. وقد تمت مشاركة اللقطات الأصلية على نطاق واسع في أعقاب الهجمات مباشرةً. ويتضمن الفيديو الذي نشره المستخدم في هذه الحالة، بعد أسبوع تقريبًا من الهجمات، نصًا يقول: "إسرائيل تتعرض للهجوم"، ويحتوي على علامة الهاشتاج #FreeIsrael، بالإضافة إلى اسم أحد الرهائن. ويذكر المستخدم في الشرح التوضيحي المصاحب للفيديو أن مقاتلي حماس هاجموا إسرائيل ويحث الأشخاص على مشاهدة الفيديو لتكوين فهم أفضل عن الرعب الذي استيقظت عليه إسرائيل يوم 7 أكتوبر 2023. وفي وقت كتابة حيثيات هذه الحالة، كان الشخصان اللذين يجري أسرهما في الفيديو لا يزالان قيد الاحتجاز كرهائن.
تم وضع نسخة من هذا الفيديو في بنك خدمة مطابقة الوسائط. أزالت Meta المنشور المعني في هذه الحالة بسبب انتهاك سياستها بشأن المنظمات الخطرة والأفراد الخطرين، والتي تحظر نشر صور ومقاطع فيديو الجهات الخارجية التي تصوّر لحظة ارتكاب هجمات تم تصنيفها كهجمات إرهابية على ضحايا واضحين تحت أي ظروف، حتى في حالة مشاركتها لإدانة الهجمات أو تعزيز الوعي بها. ولم تقم Meta بتطبيق أي إنذار. تقدَّم المستخدم بعدها بطعن على قرار Meta إلى مجلس الإشراف.
في أعقاب هجمات السابع من أكتوبر مباشرةً والتي وُصفت بأنها هجمات إرهابية، طبقت Meta سياستها بشكل صارم على مقاطع الفيديو التي تعرض لحظة الهجوم على ضحايا واضحين. أوضحت Meta أنها فعلت ذلك نتيجة للمخاوف بشأن كرامة الرهائن واستخدام مقاطع الفيديو هذه للاحتفاء بأفعال حماس أو ترويجها. أضافت Meta مقاطع الفيديو التي تصوّر لحظات هجمات السابع من أكتوبر، بما في ذلك مقطع الفيديو الذي تتناوله هذه الحالة، إلى بنوك خدمة مطابقة الوسائط لتتم إزالة النسخ المستقبلية من المحتوى المطابق تلقائيًا.
أخبرت Meta المجلس أنها طبقت سياسة المنظمات الخطرة والأفراد الخطرين حرفيًا على هذا المحتوى وأصدرت إرشادات مجمّعة للمراجعين. في 13 أكتوبر، أوضحت الشركة في منشور بغرفة الأخبار الخاصة بها أنها وسّعت مؤقتًا سياستها بشأن العنف والتحريض لتزيل المحتوى الذي يكشف هوية الرهائن بوضوح عندما يتم إبلاغ Meta بذلك، حتى إذا تم ذلك لإدانة هذه الأفعال أو تعزيز الوعي بأوضاع الرهائن. أكدت الشركة للمجلس أنها تطبق هذه السياسات بنفس القدر على فيسبوك وInstagram، وذلك على الرغم من وجود تقارير تشير إلى ظهور واسع النطاق لمحتوى مماثل على Instagram، مما يوحي باحتمال انخفاض فعّالية إنفاذ هذه السياسة على تلك المنصة.
يسمح معيار المجتمع بشأن العنف والتحريض بوجه عام بنشر المحتوى الذي يصوّر عمليات الاختطاف والاقتياد بالقوة في عدد محدود من السياقات، بما في ذلك عند مشاركة المحتوى لأغراض إعلامية أو للإدانة أو تعزيز الوعي أو عندما تقوم العائلة بمشاركة هذا المحتوى طلبًا للمساعدة. مع هذا، وفقًا لشركة Meta، فإنه عندما تصنّف الشركة هجومًا على أنه هجومًا إرهابيًا بموجب سياسة المنظمات الخطرة والأفراد الخطرين، ويشتمل هذا الهجوم على اقتياد ضحايا واضحين كرهائن، يتم تقديم قواعد Meta بشأن المحتوى المتعلق بلحظة الهجوم على معيار المجتمع بشأن العنف والتحريض. في مثل هذه الحالات، لا يتم تطبيق الاستثناءات التي تكفلها هذه السياسة والتي تتيح مشاركة مقاطع فيديو للحظة الاختطاف لأغراض إعلامية أو لأغراض الإدانة وتعزيز الوعي، وبالتالي تتم إزالة المحتوى.
مع هذا، ومع تطوّر الأحداث بعد السابع من أكتوبر، لاحظت Meta وجود اتجاهات على الإنترنت تشير إلى تغيّر في أسباب مشاركة الأشخاص لمقاطع الفيديو التي يظهر بها رهائن يمكن التعرف عليهم لحظة اقتيادهم. كانت عائلات الضحايا تشارك مقاطع الفيديو للإدانة وتعزيز الوعي، وكانت الحكومة الإسرائيلية والمؤسسات الإعلامية تشارك اللقطات على نحو مماثل، بما في ذلك لمواجهة الروايات المضادة التي بدأت تطفو على السطح لإنكار وقوع أحداث السابع من أكتوبر أو إنكار وطأة الأعمال التي وُصفت بأنها فظائع.
استجابة لهذه التطورات، طبقت Meta استثناءً لسياستها بشأن المنظمات الخطرة والأفراد الخطرين، مع الحفاظ في الوقت ذاته على تصنيفها لأحداث السابع من أكتوبر. وخضوعًا لبعض القيود التشغيلية، سيتم السماح بالمحتوى الذي يصوّر لحظة اقتياد رهائن يمكن التعرف عليهم مع وضع شاشة تحذيرية في سياق الإدانة أو تعزيز الوعي أو تقديم التقارير الإخبارية أو للمناداة بإطلاق سراحهم.
أخبرت Meta المجلس أن عملية طرح هذا الاستثناء كانت متعاقبة ولم تصل إلى جميع المستخدمين في وقت واحد. وبحلول 20 أكتوبر أو نحو ذلك، بدأت الشركة السماح بالمحتوى الذي يصوّر اقتياد الرهائن ضمن أحداث السابع من أكتوبر. وقد طبقت الشركة ذلك في بادئ الأمر على الحسابات المضمنة في برنامج "المراجعة الثانوية للاستجابة المبكرة" (والذي يعرف عادةً باسم برنامج "التحقق الشامل")، نظرًا للمخاوف بشأن القيود التشغيلية، بما في ذلك عدم اليقين بشأن السعة الاستيعابية للمراجعة البشرية. يوفر برنامج التحقق الشامل إجراء مراجعة بشرية إضافية مضمونة للمحتوى المنشور بواسطة كيانات معينة متى قامت تلك الكيانات بنشر محتوى تبيّن أنه يشكّل انتهاكًا محتملاً ويستوجب اتخاذ إجراءات إنفاذ ضده بموجب سياسات المحتوى لدى شركة Meta. في 16 نوفمبر، قررت Meta أن لديها الطاقة الاستيعابية التي تسمح بالتوسع في تطبيق استثناء المحتوى المتعلق بأخذ الرهائن على جميع الحسابات، وقامت بذلك بالفعل، ولكن بالنسبة إلى المحتوى المنشور بعد هذا التاريخ. أخبرت Meta المجلس وأوضحت ذلك أيضًا في التحديث العلني الذي نشرته في غرفة الأخبار أن الاستثناء الذي تطبقه حاليًا يقتصر على مقاطع الفيديو التي تصوّر لحظة اقتياد الرهائن والتي تم التقاطها يوم السابع من أكتوبر في إسرائيل.
بعد تحديد المجلس لهذه الحالة، ألغت Meta قرارها الأصلي وأعادت المحتوى وأضافت شاشة تحذيرية بعنوان "تمييز كمزعج". أدى ذلك إلى تقييد ظهور المحتوى ليقتصر على الأشخاص الذين تزيد أعمارهم عن 18 عامًا وإزالته من التوصيات التي تظهر لمستخدمي فيسبوك الآخرين.
4. تبرير المراجعة العاجلة
تسمح اللوائح الداخلية لمجلس الإشراف بالمراجعة العاجلة "في الظروف الاستثنائية، بما في ذلك الحالات التي قد يؤدي فيها المحتوى إلى إحداث عواقب عاجلة على أرض الواقع"، وتكون القرارات ملزِمة لشركة Meta (المادة 3، القسم 7.2 من اتفاقية المجلس؛ المادة 2، القسم 2.1.2 من اللائحة الداخلية). ويحول اتباع عملية المراجعة العاجلة دون إجراء بحث مكثف أو اللجوء إلى الاستشارات الخارجية أو دراسة التعليقات العامة وهي الإجراءات المتبعة في الحالات التي تتم مراجعتها وفق الخطط الزمنية العادية. ويتم البت في الحالة بناءً على المعلومات المتوفرة للمجلس وقت المداولات من قِبل لجنة خماسية دون إجراء تصويت للمجلس بالكامل.
وقد اختار المجلس هذه الحالة وحالة أخرى، مستشفى الشفاء (2023-049-IG-UA) لأهمية حرية التعبير في حالات النزاع، والتي كانت عُرضة للخطر في سياق النزاع الدائر بين إسرائيل وحماس. تشكّل الحالتان نماذج لأنواع الطعون التي يقدمها المستخدمون في المنطقة إلى المجلس منذ هجمات السابع من أكتوبر والعملية العسكرية الإسرائيلية التي أعقبتها. تندرج الحالتان ضمن أولويات مجلس الإشراف تجاه حالات النزاع والأزمات. تلبي قرارات Meta في الحالتين المعيار المتعلق بإحداث "عواقب عاجلة على أرض الواقع" الذي يتم بموجبه تبرير إجراء المراجعة العاجلة، ولذا اتفق المجلس وشركة Meta على المتابعة في إطار الإجراءات العاجلة التي يتبعها المجلس.
أقرَّت Meta، ضمن المعلومات التي قدمتها إلى المجلس، بأن "القرار المتعلق بكيفية التعامل مع هذا المحتوى هو أمر شائك وينطوي على قيم متعارضة ومفاضلات" وأنها ترحِّب برأي المجلس في هذه الحالة.
5. المعلومات المقدَّمة من المستخدمين
ذكر كاتب المنشور في طعنه إلى المجلس أن الفيديو يتضمن أحداثًا حقيقية. ويهدف إلى "وضع حد للإرهاب" من خلال إظهار وحشية هجوم السابع من أكتوبر، الذي تم فيه أسر الرهائن. ولقد تم إبلاغ المستخدم بمراجعة المجلس للطعن.
6. القرار
ألغى المجلس قرار شركة Meta الأصلي بإزالة المحتوى من فيسبوك. يرى المجلس أن استعادة المحتوى إلى المنصة مع تضمين شاشة تحذيرية بعنوان "تمييز كمزعج" يتفق مع سياسات المحتوى لدى Meta وقيمها ومسؤولياتها تجاه حقوق الإنسان. وعلى الرغم من ذلك، يخلُص المجلس أيضًا إلى أن قيام Meta بخفض تصنيف المحتوى الذي تمت استعادته، من خلال عدم عرضه في التوصيات لا يتفق مع مسؤوليات الشركة تجاه احترام حرية التعبير.
6.1 الامتثال لسياسات المحتوى لدى Meta
يرى المجلس أن قرار Meta الأولي بإزالة المحتوى كان يتماشى مع سياسة المنظمات الخطرة والأفراد الخطرين في ذلك الحين، والتي تحظر "صور الجهات الخارجية التي تصوّر لحظة وقوع الهجمات [المصنّفة] على ضحايا واضحين". وكانت استعادة المحتوى مصحوبًا بشاشة تحذيرية تمتثل إلى استثناء Meta المؤقت الذي يسمح بهذا المحتوى عند مشاركته لأغراض الإدانة أو تعزيز الوعي أو نشر التقارير الإخبارية أو الدعوة لإطلاق سراح الرهائن.
6.2 الامتثال لمسؤوليات شركة Meta تجاه حقوق الإنسان
يتفق المجلس على الموقف المبدئي لسياسة Meta، بشأن السابع من أكتوبر، والذي ينص على إزالة "صور الجهات الخارجية التي تصوّر لحظة وقوع الهجمات [المصنّفة] على ضحايا واضحين"، وفقًا لسياسة المنظمات الخطرة والأفراد الخطرين. يجب أن تكون حماية كرامة الرهائن وضمان عدم تعريضهم لفضول الجماهير هي النهج الافتراضي لشركة Meta. غير أنه في الظروف الاستثنائية، عندما تقتضي ذلك مصلحة عامة مُلِحة أو المصلحة الحيوية للرهائن، يكون من المبرر تطبيق استثناءات مؤقتة ومحدودة لهذا الحظر. وفي الظروف المحددة لهذه الحالة، كما أقرت Meta باستعادة المحتوى وإضافة شاشة تحذيرية إليه بعد أن وقع اختيار المجلس على الحالة، يجب السماح بالمحتوى. يرى المجلس أن قرار Meta بتغيير نهجها الأولي بشكل مؤقت - والسماح بهذا المحتوى مصحوبًا بشاشة توضيحية عند مشاركته لأغراض الإدانة أو تعزيز الوعي أو نشر التقارير الإخبارية أو الدعوة إلى إطلاق سراحهم - كان مبررًا. مع هذا، كان هذا التغيير مبررًا قبل 16 نوفمبر، حيث أصبح من الواضح أن إنفاذ Meta الصارم لسياسة المنظمات الخطرة والأفراد الخطرين كان يشكّل عائقًا للتعبير الذي كان يهدف إلى تعزيز وحماية حقوق ومصالح الرهائن وعائلاتهم. ونظرًا للظروف سريعة التغير، وارتفاع تكاليف حرية التعبير والوصول إلى المعلومات عند إزالة هذا النوع من المحتوى، كان ينبغي على Meta التحرك سريعًا لمواءمة سياستها.
وكما أورد المجلس في حالة مقطع فيديو لأسرى حرب أرمينيين، فإن أشكال حماية حرية التعبير بموجب المادة 19 من العهد الدولي الخاص بالحقوق المدنية والسياسية "تظل سارية خلال النزاعات المسلحة، ويجب أن تستند إليها مسؤوليات Meta تجاه حقوق الإنسان، جنبًا إلى جنب مع القواعد المكمّلة والتي تعزز بعضها بعضًا والواردة في القانون الدولي الإنساني ويتم تطبيقها خلال تلك النزاعات". تفرض مبادئ الأمم المتحدة التوجيهية بشأن الأعمال التجارية وحقوق الإنسان مسؤولية أكبر على الشركات العاملة في المناطق المتأثرة بالنزاعات ("الأعمال التجارية وحقوق الإنسان والمناطق المتأثرة بالنزاعات: نحو مضاعفة العمل"، A/75/212).
عند فرض الدولة لقيود على حرية التعبير، يجب أن تفي تلك القيود بمتطلبات الشرعية والهدف المشروع والضرورة والتناسب (المادة 19، الفقرة 3، العهد الدولي الخاص بالحقوق المدنية والسياسية). وتتم الإشارة إلى هذه المتطلبات غالبًا باسم "الاختبار الثلاثي". يستخدم المجلس إطار العمل هذا لتفسير التزامات Meta الطوعية تجاه حقوق الإنسان، سواء فيما يتعلق بقرارات المحتوى الفردي التي تخضع للمراجعة وما يعكسه ذلك عن نهْج Meta الأوسع تجاه إدارة المحتوى. وعند القيام بهذا الأمر، يتوخى المجلس مراعاة كيف يمكن لتلك الحقوق أن تختلف عند تطبيقها على شركة خاصة لوسائل التواصل الاجتماعي عن تطبيقها على إحدى الحكومات. وعلى الرغم من ذلك، وبحسب ما ذكره مقرر الأمم المتحدة الخاص المعني بحرية التعبير أنه على الرغم من أن "الشركات لا تتحمل التزامات الحكومات، لكن تأثيرها من النوع الذي يتطلب منها تقييم نفس النوع من الأسئلة المتعلقة بحماية حقوق مستخدميها في حرية التعبير" (تقرير A/74/486، الفقرة 41).
يقتضي متطلب الشرعية ضرورة أن تكون أي قيود على حرية التعبير متاحة وواضحة بما يكفي لتوفير إرشادات حول الأمور المسموح بها وتلك غير المسموح بها. وكما تم تطبيقها على هذه الحالة، فإن قاعدة Meta بشأن المنظمات الخطرة والأفراد الخطرين التي تحظر صور الجهات الخارجية التي تصوّر لحظة ارتكاب هجمات تم تصنيفها على أنها إرهابية ضد ضحايا واضحين، بغض النظر عن سياق مشاركتها، هي قاعدة واضحة. علاوة على ذلك، فقد أعلنت Meta بشكل علني في 13 أكتوبر، من خلال منشور في غرفة الأخبار، أنها ستزيل هذا النوع من مقاطع الفيديو. وفي حين أن Meta غيرت نهجها لاحقًا - أولاً في 20 أكتوبر، من خلال السماح بهذا المحتوى (مصحوبًا بشاشة تحذيرية) عند مشاركته بواسطة الكيانات المستفيدة من برنامج المراجعة الثانوية للاستجابة المبكرة للأغراض الإعلامية وأغراض تعزيز الوعي، ثم مرة أخرى في 16 نوفمبر، بتوسيع الاستثناء لجميع المستخدمين - لم تعلن الشركة هذا التغيير بشكل علني إلا بحلول 5 ديسمبر. وكان ذلك بعد أن اختار المجلس هذه الحالة لمراجعتها ولكن قبل أن يعلن المجلس بشكل علني اختياره لهذه الحالة في 7 ديسمبر. خلال فترة اندلاع النزاع، تغيرت القواعد التي طبقتها Meta عدة مرات دون أن يتم توضيح ذلك بشكل كامل للمستخدمين. ولا تتضح أيضًا القاعدة التي تم بموجبها وضع شاشة تحذيرية، حيث لا تنص سياسة المنظمات الخطرة والأفراد الخطرين ولا سياسة العنف والتحريض على استخدام الشاشات التحذيرية. يحث المجلس Meta على معالجة هذه المخاوف المتعلقة بالشرعية من خلال التوضيح العلني لأساس ونطاق سياستها الحالية بشأن المحتوى المتعلق بالرهائن الذين تم اقتيادهم من إسرائيل في السابع من أكتوبر، وعلاقتها بالسياسات الأكثر عمومية المعنية.
بموجب الفقرة 3 من المادة 19 من العهد الدولي الخاص بالحقوق المدنية والسياسية، يجوز تقييد حرية التعبير لمجموعة محددة ومحدودة من الأسباب. وجد المجلس في السابق أن سياسة المنظمات الخطرة والأفراد الخطرين وسياسة العنف والتحريض تسعى إلى تحقيق هدف مشروع يتمثل في حماية حقوق الآخرين (راجع مكتب تيجراي لشؤون الاتصال وذِكر طالبان في التقارير الإخبارية).
يقتضي مبدأ الضرورة والتناسب أن أي قيود تُفرَض على حرية التعبير "يجب أن تكون مناسبة لتحقيق وظيفة الحماية المنوطة بها، ويجب أن تكون أقل الوسائل تدخلاً مقارنة بغيرها من الوسائل التي يمكن أن تحقق النتيجة المنشودة، ويجب أن تكون متناسبة مع المصلحة التي ستحميها" (التعليق العام رقم 34، الفقرة 34).
يرى المجلس أن قرار Meta الأولي بإزالة كل المحتوى الذي يصوّر رهائن واضحين كان ضروريًا ومتناسبًا لتحقيق أهداف حماية سلامة الرهائن وكرامتهم وضمان عدم استخدام منصات Meta لتعزيز أعمال العنف المرتكبة يوم 7 أكتوبر أو تشجيع زيادة المعاملة المُهينة أو اللاإنسانية للرهائن. وقد نظر المجلس في القانون الدولي الإنساني، والسياق الرقمي أثناء الأسبوع الأول من النزاع، وتدابير التخفيف التي اتخذتها Meta لتقليل تأثير قرارها بإزالة كل عناصر هذا النوع من المحتوى.
يحدد القانون الدولي الإنساني، في النزاعات المسلحة الدولية وغير الدولية على حد سواء، الضَعف الخاص للرهائن في النزاع المسلح ويوفر الحماية للتصدي لتلك المخاطر المتزايدة؛ حيث يُحظر أخذ الرهائن بموجب اتفاقيات جنيف (المادة 3 المشتركة)، من اتفاقيات جنيف المادة 27 والمادة 34، من اتفاقية جنيف الرابعة). ووفقًا لتعليق لجنة الصليب الأحمر الدولية، يجب استخدام تعريف أخذ الرهائن في الاتفاقية الدولية لمناهضة أخذ الرهائن والذي ينص على أنه القبض على شخص أو احتجازه، مع التهديد بقتله أو إيذائه أو استمرار احتجاز هذا الشخص من أجل إكراه طرف ثالث على القيام أو الامتناع عن القيام بفعل معين كشرط صريح أو ضمني للإفراج عن الشخص، لتعريف هذا المصطلح في اتفاقيات جنيف. تحظر أيضًا المادة 3 المشتركة "الاعتداءات على الكرامة الشخصية، لا سيّما المعاملة المهينة أو الحاطَّة بالكرامة". توفر المادة 27 من اتفاقية جنيف الرابعة الحماية للأشخاص المشمولين بالحماية، بما في ذلك الرهائن، من المعاملة اللاإنسانية أو الحاطَّة بالكرامة، بما في ذلك السباب وفضول الجماهير. يمكن أن تكون مشاركة مقاطع الفيديو الخاصة بالرهائن جزءًا لا يتجزأ من استراتيجية لتهديد الحكومة والجمهور ويمكن أن تعزز استمرار احتجاز الرهائن وإذلالهم، وهو ما يشكل انتهاكًا مستمرًا للقانون الدولي. وفي ظل هذه الظروف، فإن السماح بنشر صور العنف وسوء المعاملة والضعف المستمر، يمكن أن يشجع على المزيد من العنف والمعاملة المهينة.
بدأت مقاطع فيديو للرهائن تنتشر على منصات وسائل التواصل الاجتماعي بالتزامن مع هجوم السابع من أكتوبر. وفقًا للتقارير، بثت حماس والجهاد الإسلامي الفلسطيني مقاطع فيديو طوال الأسبوع الأول، مع وجود مخاوف شديدة من أن يعقب ذلك عمليات بث مباشر ومقاطع فيديو لعمليات إعدام أو تعذيب. وفي ظل هذه الظروف، كان قرار Meta بحظر كل مقاطع الفيديو تلك من منصاتها منطقيًا ومتماشيًا مع القانون الدولي الإنساني، ومعايير مجتمعها، وقيمة السلامة التي تعتنقها. وتتطلب معايير الصناعة، مثل الالتزامات المنصوص عليها في دعوة كرايستشيرش، من الشركات الاستجابة بسرعة وفعّالية للمحتوى الضار الذي تتم مشاركته في أعقاب الهجمات المتطرفة العنيفة. ومع ذلك، تؤكد دعوة كرايستشيرش أيضا على الحاجة إلى الاستجابة لهذا النوع من المحتوى على نحو يتفق مع حقوق الإنسان والحريات الأساسية.
في الوقت ذاته، اتخذت Meta تدابير للحد من التأثير السلبي المحتمل لقرارها بإزالة كل هذه الصوّر ومقاطع الفيديو عندما قررت عدم تطبيق إنذار على المستخدمين الذين أزيل المحتوى الخاص بهم بموجب هذه السياسة، مما يخفف من الآثار الضارة للسياسة الصارمة على المستخدمين الذين ربما كانوا ينشرون المحتوى لأغراض مثل إدانة الأحداث أو تعزيز الوعي بها أو نشر تقارير عنها. ويرى المجلس أنه قد يكون من المعقول والمفيد لشركة Meta النظر في معايرة الإنذارات أو الاستغناء عنها للتخفيف من العواقب السلبية للقواعد القاطعة المطبقة بصرامة على نطاق واسع، وبالتالي جعل القيود المفروضة على التعبير أكثر تناسبًا مع الهدف المنشود.
تحظر اتفاقيات جنيف تعريض الأشخاص المشمولين بالحماية، بما في ذلك الرهائن، لفضول الجماهير لأنه يشكّل معاملة مُهينة. توجد استثناءات محدودة لهذا الحظر، والتي قام المجلس بتحليلها في قرار مقطع فيديو لأسرى حرب أرمينيين، والتي تتطلب إجراء موازنة معقولة بين فوائد الكشف العلني عن المواد التي تصوّر أسرى يمكن التعرف عليهم، "بالنظر إلى القيمة العالية لهذه المواد عند استخدامها كدليل لملاحقة مرتكبي جرائم الحرب، وتعزيز المساءلة ووعي الجمهور بالانتهاكات، والمذلة المحتملة بل والضرر البدني الذي قد يتعرض له الأشخاص الذين يظهرون في المواد التي يتم تداولها." ويتطلب الكشف الاستثنائي وجود مصلحة عامة مُلحة أو خدمة المصالح الحيوية للرهينة.
ولهذه الأسباب، يجب تقييم أي قرار بإجراء استثناء مؤقت للقيود المفروضة على المحتوى الذي يُظهر رهائن أو أسرى حرب يمكن التعرف عليهم على أساس الحقائق المتعلقة بهؤلاء الرهائن أو أسرى الحرب تحديدًا وحقوقهم ومصالحهم، ويجب مراجعته باستمرار لضمان صياغته بشكل محكم لخدمة تلك الحقوق والمصالح، وكي لا يصبح استثناءً عامًا للقواعد التي تهدف إلى حماية حقوق وكرامة الأشخاص المشمولين بالحماية. وقد شكلت الوقائع في هذه الحالة إشارات قوية تفيد بأن هذا الكشف كان يخدم المصلحة الحيوية للرهائن. خلال الأسبوع الأول الذي أعقب هجوم السابع من أكتوبر، بدأت عائلات الرهائن أيضًا في تنظيم ومشاركة مقاطع الفيديو كجزء من حملتهم للدعوة إلى إطلاق سراح الرهائن والضغط على الحكومات المختلفة للعمل لصالح الرهائن. وكان مقطع الفيديو الذي تم استخدامه في المنشور المنظور في هذه الحالة أيضًا جزءًا من حملة لعائلة المرأة التي ظهرت في الفيديو. بالإضافة إلى ذلك، اعتبارًا من 16 أكتوبر تقريبًا، بدأت الحكومة الإسرائيلية عرض مقاطع فيديو مجمعة للصحفيين لإظهار خطورة هجمات السابع من أكتوبر. وقد وردت تقارير عن وجود روايات منتشرة تنكر الفظائع المرتكبة في الأسابيع التي أعقبت السابع من أكتوبر. وبالنظر إلى ذلك، كان من المنطقي أن تخلُص شركة Meta إلى ضرورة عدم إسكات الشركة لأصوات عائلات الرهائن وإحباط جهود المؤسسات الإخبارية والكيانات الأخرى التي تجري تحقيقات وتنشر تقارير عن الوقائع. وقد يكون من المهم للعائلات والسلطات تحقيقًا لسلامة الرهائن مستقبلاً رؤية رهينة على قيد الحياة والتمكن من تحديد حالتها البدنية، وحتى التعرف على الخاطفين. ويحظى ذلك بأهمية خاصة عند افتقار Meta إلى آلية تتسم بالشفافية والفعّالية للحفاظ على هذا المحتوى (راجع المزيد من المناقشة أدناه). وباختصار، نظرًا للتغيرات التي طرأت على البيئة الرقمية في الأسابيع التي أعقبت أحداث السابع من أكتوبر، كان لدى Meta ما يبرر إجراء استثناء مؤقت لسياساتها، يقتصر على الرهائن الذين تم القبض عليهم يوم السابع من أكتوبر في إسرائيل.
يخلُص المجلس أيضًا إلى أن Meta استغرقت وقتًا طويلاً لطرح تطبيق هذا الاستثناء لجميع المستخدمين. واتسمت Meta أيضًا بالبطء الشديد في الإعلان عن التغيير المؤقت لعامة الجمهور. وقد بدأت Meta في 20 أكتوبر السماح بمقاطع الفيديو هذه مصحوبة بشاشة تحذيرية عند مشاركتها للأغراض الإعلامية أو لأغراض تعزيز الوعي، لكنها قصرت ذلك على الكيانات المدرجة في قائمة المراجعة الثانوية للاستجابة المبكرة ضمن برنامج التحقق الشامل. وفي 16 نوفمبر، أي بعد نحو أربعة أسابيع من إقرار الاستثناء الأولي وبعد ما يقرب من شهر ونصف من بدء النزاع، قامت Meta بتوسيع نطاق هذا الاستثناء لينطبق على جميع المستخدمين. وفي 5 ديسمبر، أعلنت Meta أخيرًا من خلال مقالة في غرفة الأخبار أنها أجرت تغييرات على سياستها التي تحظر نشر مقاطع فيديو تصوّر الرهائن في لحظة الهجوم. وفي حين يجد المجلس أن مفهوم الطرح التدريجي للتغييرات التي تطرأ على السياسة معقول من حيث المبدأ، يخلُص المجلس إلى أنه كان ينبغي على الشركة الاستجابة للظروف المتغيرة بسرعة أكبر.
بعد أن غيّرت Meta نهجها الأولي وقدمت الاستثناء، لا تزال Meta تطبق شاشة تحذيرية على المحتوى. وكما خلُص المجلس في حالات سابقة، فإن تطبيق شاشة تحذيرية يمكن في ظروف معينة أن يمثل إجراءً متناسبًا، حتى إذا كان لذلك تأثير سلبي على وصول المحتوى، لأنه يوفر للأشخاص القدرة على المشاركة وتقرير رغبتهم في مشاهدة المحتوى المزعج أم لا (راجع مقطع فيديو لأسرى حرب أرمينيين). يرى المجلس أن استبعاد المحتوى الذي يعزز الوعي بالانتهاكات المحتملة لحقوق الإنسان أو الأعمال الإرهابية من التوصيات لا يشكّل قيدًا ضروريًا أو متناسبًا على حرية التعبير بالنظر إلى المصلحة العامة الكبيرة المرتبطة بهذا المحتوى. بالإضافة إلى ذلك، تؤدي الشاشات التحذيرية والإزالة من التوصيات وظائف منفصلة، وينبغي فصلهما في بعض الحالات، وبالأخص في حالات الأزمات. وتعني إزالة المحتوى من أنظمة التوصية تقليل معدلات الوصول الذي كان سيحققه هذا المحتوى لولا تلك الإزالة. ويرى المجلس أن هذه الممارسة تتعارض مع حرية التعبير بأوجه غير متناسبة من حيث تطبيقها على المحتوى الذي تم قصر ظهوره بالفعل على المستخدمين البالغين والذي يُنشر لتعزيز الوعي أو الإدانة أو لنشر تقارير عن قضايا تحظى باهتمام عام، مثل تطوُّر نزاع عنيف.
يشعر المجلس بالقلق أيضًا من أن نهج Meta سريع التغير في الإشراف على المحتوى خلال حالات النزاع قد صاحبه نقص مستمر في الشفافية مما يقوض التقييم الفعّال لسياساتها وممارساتها، ويضفي عليها مظهرًا خارجيًا يوحي بالتعسف. على سبيل المثال، أكدت Meta أن الاستثناء الذي يسمح بمشاركة صوّر أو مقاطع فيديو تتضمن ضحايا واضحين لهجوم مصنّف لأغراض إعلامية أو لتعزيز الوعي هو إجراء مؤقت. ومع ذلك، لا يتضح ما إذا كان هذا الإجراء جزءًا من بروتوكول سياسة الأزمات لدى الشركة أم تم ارتجاله بواسطة فِرق Meta مع تطوّر الأحداث. وكانت Meta قد وضعت بروتوكول سياسة الأزمات استجابة لتوصية المجلس رقم 18 في حالة تعليق حسابات الرئيس الأسبق ترامب. وفقًا للشركة، يهدف هذا البروتوكول إلى تزويد Meta بإطار عمل لتوقع المخاطر والاستجابة لها بشكل متسق عبر مختلف الأزمات. إن الافتقار إلى الشفافية بشأن البروتوكول يعني أنه لا المجلس ولا الجمهور يعرف ما إذا كان إجراء السياسة المتبع في هذه الحالة (ويُقصد به السماح بالمحتوى الذي ينتهك نص القاعدة المعنية بموجب سياسة المنظمات الخطرة والأفراد الخطرين لأغراض تعزيز الوعي والإدانة مع إضافة شاشة تحذيرية) قد تم وضعه وتقييمه قبل هذا النزاع أم لا، وما النطاق الدقيق لتطبيق إجراء السياسة المؤقت (على سبيل المثال، هل ينطبق هذا الإجراء على مقاطع الفيديو التي تصوّر الرهائن الذين تم احتجازهم بعد هجوم السابع من أكتوبر أم لا؟)، ومعايير استخدامه، والظروف التي لن يكون فيها هذا الإجراء ضروريًا، وما إذا كانت Meta تنوي استئناف إزالة كل عناصر المحتوى تلك بمجرد انتهاء الإجراء المؤقت. ويؤكد المجلس من جديد عدم إخطار الشركة للمستخدمين والجمهور في الوقت المناسب وبشكل فعّال بهذه التدابير المخصصة للأزمات. وقد ذكر المجلس سابقًا أنه يجب على Meta الإعلان عن مثل هذه الاستثناءات لمعايير مجتمعها، وذلك بالإعلان عن "مدتها وإصدار إشعار عند انتهاء صلاحيتها، لإبلاغ مستخدمي منصاتها بما يطرأ من تغييرات على السياسة تسمح بأنواع معينة من التعبير" (راجع شعار الاحتجاجات في إيران، التوصية رقم 5، التي نفذتها Meta جزئيًا). ويمكن أن يترك الافتقار إلى الشفافية أيضًا تأثيرًا سلبيًا على المستخدمين الذين قد يخشون إزالة المحتوى الخاص بهم ومعاقبة حساباتهم أو تقييدها حال ارتكابهم للأخطاء. وأخيرًا، وبالنظر إلى الحظر العام الأساسي المفروض على تصوير الرهائن والظروف الاستثنائية جدًا التي يمكن في ظلها تخفيف هذا الحظر، يساعد إرسال إشعارات سريعة ومنتظمة والتحلي بالشفافية فيما يتعلق بالنطاق الدقيق والقيود الزمنية لتطبيق الاستثناءات على ضمان أن تظل تلك الاستثناءات محدودة قدر الإمكان.
علاوة على ذلك، بدأت الشركة أولاً بالسماح للكيانات المستفيدة من برنامج التحقق الشامل بمشاركة مقاطع الفيديو الخاصة بالرهائن مصحوبة بشاشة تحذيرية لأغراض إعلامية وأغراض تعزيز الوعي قبل توسيع الاستثناء ليشمل جميع المستخدمين. ويبدو أن اعتماد خطوة تخفيفية وسيطة للتحول نحو سياسة مؤقتة أكثر تساهلاً أمرًا معقولاً بالنظر إلى السياق، مما يسمح للشركة باختبار آثار التغيير على نطاق أكثر محدودية قبل تنفيذه على نطاق واسع. ومع هذا، فإن الاستعانة ببرنامج التحقق الشامل لتنفيذ ذلك تعيد تسليط الضوء على بعض المشاكل التي حددها المجلس سابقًا في رأيه الاستشاري بشأن سياسات المحتوى فيما يتعلق بهذا الموضوع. وينطوي ذلك على عدم التكافؤ في معاملة المستخدمين، والافتقار إلى وجود معايير شفافة للإدراج في قوائم التحقق الشامل، والحاجة إلى ضمان تمثيل أكبر للمستخدمين الذين يحتمل أن يحظى المحتوى الخاص بهم بالأهمية من منظور حقوق الإنسان، مثل الصحفيين ومنظمات المجتمع المدني، والافتقار الشامل للشفافية فيما يتعلق بآلية عمل برنامج التحقق الشامل. إن الاستعانة ببرنامج التحقق الشامل بهذه الطريقة يتعارض أيضًا مع الكيفية التي وصفت بها Meta البرنامج وشرحت الغرض منه، باعتباره برنامجًا لمنع الأخطاء وليس برنامجًا يوفر لبعض المستخدمين المتميزين قواعد أكثر تساهلاً. أشارت Meta أنها تواصل العمل على تنفيذ معظم التوصيات الصادرة عن المجلس في هذا الرأي الاستشاري بشأن سياسات المحتوى، ولكن لا يملك المجلس ولا الجمهور معلومات كافية لتقييم ما إذا كان الاعتماد على قائمة برنامج التحقق الشامل أثناء النزاع يتماشى مع مسؤوليات Meta تجاه حقوق الإنسان أم لا أو ما إذا كان من المحتمل أن يؤدي إلى حدوث تأثير متباين، أو إلى تفضيل سوق أو مجموعة من المتحدثين على حساب سوق آخر أو مجموعة أخرى.
وختامًا، تقع على عاتق Meta مسؤولية الاحتفاظ بأدلة تثبت الانتهاكات المحتملة لحقوق الإنسان وانتهاكات القانون الدولي الإنساني، حسبما يوصي به أيضًا تقرير مؤسسة "الأعمال من أجل المسؤولية الاجتماعية" (التوصية رقم 21) وحسبما تدعو إليه مجموعات المجتمع المدني. حتى عند إزالة المحتوى من منصات Meta، من الضروري الاحتفاظ بتلك الأدلة لأغراض المساءلة في المستقبل (راجع فيديو صادم حول السودان ومقطع فيديو لأسرى حرب أرمينيين). وعلى الرغم من أن Meta قد أوضحت أنها تحتفظ لفترة سنة واحدة بكل المحتوى الذي يخالف معايير مجتمعها، يحثها المجلس على تحديد المحتوى المرتبط على وجه الخصوص بجرائم الحرب المحتملة أو الجرائم ضد الإنسانية أو الانتهاكات الجسيمة لحقوق الإنسان والاحتفاظ به على نحوٍ مستمر ويمكن الوصول إليه لأغراض مساءلة أطول أمدًا. وينوِّه المجلس على أن Meta قد وافقت على تنفيذ التوصية رقم 1 في حالة مقطع فيديو لأسرى حرب أرمينيين. وقد تطلَب ذلك من Meta وضْع بروتوكول للاحتفاظ بالمعلومات، ومشاركتها عند الاقتضاء، مع السلطات المختصة للمساعدة في التحقيقات والإجراءات القانونية التي تهدف إلى تحقيق العدالة أو ملاحقة مرتكبي الجرائم الفظيعة أو الانتهاكات الجسيمة لحقوق الإنسان. وقد أبلغت Meta المجلس بأنها في المراحل النهائية لوضع "نهج ثابت للاحتفاظ بالأدلة المحتملة لارتكاب جرائم فظيعة أو انتهاكات جسيمة للقانون الدولي لحقوق الإنسان" وتتوقع أن تقدِّم إلى المجلس إيجازًا بشأن نهجها قريبًا. ويتوقع المجلس من Meta تنفيذ التوصية الواردة أعلاه بالكامل.
*ملاحظة إجرائية:
يتم إعداد القرارات العاجلة لمجلس الإشراف من قِبل لجان مكونة من خمسة أعضاء ولا يشترط لها موافقة أغلبية المجلس بكامل هيئته. ولا يلزم بالضرورة أن تُعبّر قرارات المجلس عن وجهات النظر الشخصية لجميع الأعضاء.
العودة إلى قرارات الحالة والآراء الاستشارية المتعلقة بالسياسة