أسقط
مستشفى الشفاء
ألغى المجلس قرار شركة Meta الأصلي بإزالة المحتوى من Instagram. يرى المجلس أن استعادة المحتوى إلى المنصة مع تضمين شاشة تحذيرية بعنوان "تمييز كمزعج" يتفق مع سياسات المحتوى لدى Meta وقيمها ومسؤولياتها تجاه حقوق الإنسان.
في الأسابيع التي تلي نشْر هذا القرار، سنقوم بتحميل ترجمة باللغة العبرية هنا، وستتوفر ترجمة باللغة العربية من خلال علامة تبويب "اللغة" التي يمكن الوصول إليها في القائمة المعروضة بالجزء العلوي من هذه الشاشة.
לקריאת החלטה זו בעברית יש ללחוץ כאן.
1. الملخص
تتضمن هذه الحالة مقطع فيديو مثير للعواطف إلى درجة كبيرة يصوِّر الآثار التي خلَّفتها غارة على مستشفى الشفاء في غزة أو بالقرب منه خلال العملية البرية الإسرائيلية على القطاع، مع شرح توضيحي يُدين الهجوم. أزالت أنظمة Meta التلقائية المنشور لانتهاكه معيار مجتمعها بشأن المحتوى العنيف والصادم. بعد رفْض Meta الطعن على هذا القرار، لجأ المستخدم إلى الطعن أمام مجلس الإشراف. وبعد تحديد المجلس الحالة للمراجعة، ألغت Meta قرارها واستعادت المحتوى مع تضمين شاشة تحذيرية. يرى المجلس أن القرار الأصلي بإزالة المحتوى لم يتفق مع سياسات المحتوى لدى شركة Meta أو مسؤولياتها تجاه حقوق الإنسان. ويوافق المجلس على قرار استعادة المحتوى مع تضمين شاشة تحذيرية لكنه يرفض ما يقترن بذلك من خفض لتصنيف المحتوى على نحو يحول دون ظهوره في التوصيات. وهذه الحالة، إلى جانب حالة الرهائن الإسرائيليين (2023-050-FB-UA)، تمثلان أولى حالات المجلس التي يتم البت فيها بموجب إجراءات المراجعة العاجلة.
2. السياق واستجابة Meta
في 7 أكتوبر 2023، شنت حماس، وهي منظمة مصنفة بموجب الفئة الأولى من معيار مجتمع Meta بشأن المنظمات الخطرة والأفراد الخطرين، هجمات غير مسبوقة تم وصفها كهجمات إرهابية على إسرائيل من قطاع غزة مما أدى إلى مقتل نحو 1200 شخص وأسْر نحو 240 رهينة (وزارة الخارجية، حكومة إسرائيل). وعلى إثر ذلك مباشرةً، نفّذت إسرائيل حملة عسكرية في غزة ردًا على تلك الهجمات. وأودت العمليات العسكرية الإسرائيلية بحياة ما يزيد عن 18 ألف شخص في قطاع غزة حتى منتصف ديسمبر 2023 (مكتب الأمم المتحدة لتنسيق الشؤون الإنسانية، من واقع بيانات وزارة الصحة في غزة)، في نزاع اتُهم فيه الطرفان بانتهاك القانون الدولي. أصبحت هجمات حماس التي وُصفت بأنها هجمات إرهابية، وما أعقبها من عمليات عسكرية إسرائيلية على حدٍ سواء موضوع دعاية وجدال وتدقيق ونقاش محتدم على مستوى العالم، وكثيرٌ من ذلك شهدته منصات وسائل التواصل الاجتماعي، بما في ذلك Instagram وفيسبوك.
وعلى الفور، قامت Meta بتصنيف أحداث السابع من أكتوبر هجومًا إرهابيًا بموجب سياستها بشأن المنظمات الخطرة والأفراد الخطرين. وهذا بموجب معيار مجتمعها يعني أن Meta ستزيل أي محتوى على منصاتها "يمجِّد أو يؤيد بشدة أو يمثِّل" هجمات السابع من أكتوبر أو مرتكبيها.
واستجابةً للزيادة الاستثنائية في المحتوى العنيف والصادم الذي نُشر على منصاتها في أعقاب تلك الهجمات ورد الفعل العسكري حيالها، عمدت Meta إلى اتخاذ عدة تدابير مؤقتة بما في ذلك خفض حدود الثقة في نظام التصنيف التلقائي لديها (أداة التصنيف) للمحتوى العنيف والصادم لتحديد المحتوى وإزالته. وأبلغت Meta المجلس بهذه التدابير التي طبقتها على المحتوى الصادر من إسرائيل وغزة بجميع اللغات. أدت التغييرات التي أُدخلت على أدوات التصنيف هذه إلى زيادة معدلات الإزالة التلقائية للمحتوى عند انخفاض مستوى الثقة فيما يتعلق بالمحتوى المخالف لسياسات Meta. بعبارة أخرى، استخدمت Meta أدواتها التلقائية على نحوٍ أكثر حِدة لإزالة المحتوى الذي قد يخالف سياساتها. وقد فعلت Meta ذلك من منطلق رغبتها في إعطاء الأولوية لقيمة السلامة، وبذلك أُزيلت عناصر محتوى أكثر مما كانت ستُزال بموجب حد الثقة الأعلى الذي كان مطبقًا قبل 7 أكتوبر. وعلى الرغم من أن ذلك قد قلل من احتمالية إخفاق Meta في إزالة المحتوى المخالف الذي ربما تفادى الاكتشاف بطريقة أو بأخرى أو بسبب محدودية السعة الاستيعابية للمراجعة البشرية، فقد تسبب أيضًا في تعزيز احتمالية قيام Meta عن طريق الخطأ بإزالة محتوى غير مخالف يتعلق بالنزاع.
عندما أجْرَت فرق التصعيد تقييمًا لمقاطع الفيديو باعتبارها مخالفة لسياسات المحتوى العنيف والصادم والعنف والتحريض وسياسات المنظمات الخطرة والأفراد الخطرين، اعتمدت Meta على بنوك خدمة مطابقة الوسائط في الإزالة التلقائية لمقاطع الفيديو المطابقة. وقد أثار هذا النَهْج مخاوف بشأن فرط الإنفاذ، بما في ذلك الأشخاص الذين يواجهون فرض قيود على حساباتهم أو تعليقها بعد ارتكاب عدة مخالفات لسياسات المحتوى لدى Meta (ويشار إلى ذلك أحيانًا باسم "سِجن فيسبوك"). ورغبةً منها في التخفيف من حدة هذه المخاوف، لم تفرض Meta "الإنذارات" التي عادةً ما كانت تصاحب الإزالة التلقائية التي تتم استنادًا إلى بنوك خدمة مطابقة الوسائط (مثلما أعلنت Meta في منشور بغرفة الأخبار الخاصة بها).
ويقتصر تطبيق تغييرات Meta فيما يتعلق بحدود الثقة في أداة التصنيف وسياسة الإنذارات لديها على النزاع الدائر بين إسرائيل وغزة ومن المقرر العمل بهذه التغييرات لفترة مؤقتة. وحتى 11 ديسمبر 2023، لم تكن Meta قد أعادت حدود الثقة إلى مستويات ما قبل 7 أكتوبر.
3. وصف الحالة
المحتوى موضوع هذه الحالة يتضمن مقطع فيديو على Instagram في الأسبوع الثاني من نوفمبر، يصوِّر ما يبدو أنه آثار غارة على مستشفى الشفاء في غزة أو بالقرب منه خلال العملية البرية الإسرائيلية في شمال قطاع غزة. ويظهر في منشور Instagram في هذه الحالة أشخاص، بينهم أطفال، ملقون على الأرض ما بين قتيلٍ وجريح ويصرخون. ويظهر طفل يبدو أنه ميِّت بإصابة بالغة في رأسه. وقد وَرَد في الشرح التوضيحي المصاحب للفيديو باللغتين العربية والإنجليزية أن المستشفى قد جرى استهدافه من قِبل "الاحتلال الغاصب"، في إشارة إلى الجيش الإسرائيلي، وتضمن الشرح التوضيحي إشارات إلى منظمات حقوق الإنسان والمؤسسات الإخبارية.
يحظر معيار مجتمع Meta بشأن المحتوى العنيف والصادم والذي ينطبق على المحتوى الذي يتم نشره على فيسبوك وInstagram "مقاطع فيديو لأشخاص أو جثث في سياقات غير طبية إذا كانت تصوِّر ... أحشاء مبقورة." وقت النشر، سمحت السياسة "بالصور التي تعرض مشاهد صادمة لموت شخص أو مجموعة أشخاص في حادث أو جريمة قتل" شريطة تضمين شاشة تحذيرية بعنوان "تمييز كمزعج" على ذلك المحتوى مع عرضه فقط على الأشخاص الذين تزيد أعمارهم عن 18 عامًا. جرى تحديث هذه القاعدة في 29 نوفمبر، بعد استعادة المحتوى في هذه الحالة، لتوضيح سريان القاعدة على "لحظة الموت أو ما بعدها" إلى جانب صور لشخص "يتعرض لحدث يهدد حياته".
أزالت أنظمة Meta التلقائية المحتوى في هذه الحالة لمخالفته معيار المجتمع بشأن المحتوى العنيف والصادم. تم رفض طعن المستخدم على ذلك القرار تلقائيًا نظرًا لأن أدوات التصنيف لدى Meta أشارت إلى "مستوى ثقة مرتفع" يفيد بأن المحتوى مخالف. تقدَّم المستخدم بعدها بطعن على قرار Meta إلى مجلس الإشراف.
وبعد تحديد المجلس لهذه الحالة، ذكرت Meta أنه ما كان بإمكانها أن تحسم بشكل قاطع أن مقطع الفيديو أظهر أحشاءً مبقورة. وعليه، فقد خلُصت Meta إلى أنه ما كان ينبغي لها أن تزيل هذا المحتوى رغم أنه كان "يوشك على انتهاك المعايير". كما أوضحت Meta أنه حتى إذا كانت الأحشاء المبقورة ظاهرة في المحتوى، كان ينبغي الإبقاء على المحتوى مع تضمين شاشة تحذيرية بعنوان "تمييز كمزعج" حيث كانت تتم مشاركته بهدف تعزيز الوعي. وأكدت الشركة أنه وتماشيًا مع مبادئ سياسة المحتوى العنيف والصادم، يُسمح بذلك المحتوى عند مشاركته لتعزيز الوعي "بالقضايا المهمة، مثل انتهاكات حقوق الإنسان أو النزاعات المسلحة أو الأعمال الإرهابية".
لذا، فقد ألغت Meta قرارها الأصلي واستعادت المحتوى مع تضمين شاشة تحذيرية. تُخبِر الشاشة التحذيرية المستخدمين بأن المحتوى قد يكون مزعجًا. ويمكن للمستخدمين البالغين النقر لعرض المنشور، ولكن Meta تزيل هذه المنشورات من مواجز مستخدمي Instagram الذين تقل أعمارهم عن 18 عامًا، كما أنها تزيلها من التوصيات التي يتم عرضها على مستخدمي Instagram البالغين. كما أضافت Meta مثيلاً منفصلاً لمقطع الفيديو نفسه إلى بنك خدمة مطابقة الوسائط حتى يتم الإبقاء تلقائيًا على مقاطع الفيديو الأخرى المماثلة لهذا الفيديو مع تضمين شاشة تحذيرية وظهوره فقط للأشخاص الذين تزيد أعمارهم عن 18 عامًا.
4. تبرير المراجعة العاجلة
تسمح اللوائح الداخلية لمجلس الإشراف بالمراجعة العاجلة "في الظروف الاستثنائية، بما في ذلك الحالات التي قد يؤدي فيها المحتوى إلى إحداث عواقب عاجلة على أرض الواقع"، وتكون القرارات ملزِمة لشركة Meta (المادة 3، القسم 7.2 من اتفاقية المجلس؛ المادة 2، القسم 2.1.2 من اللائحة الداخلية). يترتب على الإجراء العاجل استبعاد مستوى البحث المكثف أو الاستشارة الخارجية أو التعليقات العامة التي تُجرى في الحالات التي تُراجَع ضمن الخطط الزمنية العادية. يتم البتّ في الحالة في ضوء المعلومات المتوفرة للمجلس عند المداولة، ويصدُر القرار بشأنها من لجنة تضم خمسة أعضاء دون الحاجة إلى تصويت كامل من المجلس.
وقد اختار المجلس هذه الحالة وحالة أخرى، الرهائن الإسرائيليون (2023-050-FB-UA) لأهمية حرية التعبير في حالات النزاع، والتي كانت عُرضة للخطر في سياق النزاع الدائر بين إسرائيل وحماس. تمثِّل الحالتان أنواع الطعون التي كان يتقدم بها المستخدمون في المنطقة إلى المجلس منذ هجمات السابع من أكتوبر والعملية العسكرية الإسرائيلية التي أعقبتها. تندرج الحالتان ضمن أولويات مجلس الإشراف تجاه حالات النزاع والأزمات. تلبي قرارات Meta في الحالتين معيار "عواقب عاجلة على أرض الواقع" لتبرير المراجعة العاجلة، ولذا اتفق المجلس وشركة Meta على المتابعة في إطار الإجراءات العاجلة التي يتبعها المجلس.
أقرَّت Meta، ضمن المعلومات التي قدمتها إلى المجلس، بأن "القرار المتعلق بكيفية التعامل مع هذا المحتوى هو أمر شائك وينطوي على قيم متعارضة ومفاضلات" وأنها ترحِّب برأي المجلس في هذه الحالة.
5. المعلومات المقدَّمة من المستخدمين
ذكرَ كاتب المنشور في الطعن الذي تقدَّم به إلى المجلس أنه لم يحرِّض على العنف بل شارك محتوى يصوِّر معاناة الفلسطينيين، بما في ذلك الأطفال. وأضاف المستخدم أن الإزالة جاءت متحيزة ضد معاناة الفلسطينيين. ولقد تم إبلاغ المستخدم بمراجعة المجلس للطعن.
6. القرار
رغم الاختلاف بين أعضاء المجلس بشأن رد إسرائيل العسكرية ومبرراته، فإنهم متفقون بالإجماع على أهمية احترام Meta للحق في حرية التعبير وحقوق الإنسان الأخرى لكل من تضرَِّر جرَّاء هذه الأحداث، وقدرتهم على التواصل خلال هذه الأزمة.
ألغى المجلس قرار شركة Meta الأصلي بإزالة المحتوى من Instagram. يرى المجلس أن استعادة المحتوى إلى المنصة مع تضمين شاشة تحذيرية بعنوان "تمييز كمزعج" يتفق مع سياسات المحتوى لدى Meta وقيمها ومسؤولياتها تجاه حقوق الإنسان. وعلى الرغم من ذلك، يخلُص المجلس أيضًا إلى أن خفض التصنيف من جانب Meta للمحتوى الذي تمت استعادته، في شكل استبعاده من العرض في التوصيات لا يتفق مع مسؤوليات الشركة تجاه احترام حرية التعبير.
6.1 الامتثال لسياسات المحتوى لدى Meta
يتفق المجلس مع Meta في أنه من الصعب تحديد ما إذا كان مقطع الفيديو في هذه الحالة يصوِّر "أحشاء مبقورة". وبالنظر إلى سياق هذه الحالة، حيث توجد قيمة عالية استثنائية من حيث المصلحة العامة تتعلق بحماية الوصول إلى المعلومات وإتاحة سبل تعزيز الوعي بتأثير النزاع، ينبغي عدم إزالة المحتوى الذي "يوشك على" انتهاك سياسة المحتوى العنيف والصادم. ونظرًا لاشتمال المحتوى على صور تعرض موت شخص بسبب أعمال عنف حيث تظهر إصابة دموية في الرأس، كان ينبغي لشركة Meta أن تضع شاشة تحذيرية وأن تتيح المحتوى فقط للأشخاص الذين تتجاوز أعمارهم 18 عامًا وفق سياساتها.
كما يتفق المجلس مع Meta في قرارها اللاحق في أنه حتى وإن كان مقطع الفيديو هذا قد تضمن عرض أحشاء مبقورة، فإن لغة المنشور التي تدين العنف أو تعزز الوعي به تعني أيضًا أنه كان ينبغي تركه مع تضمين شاشة تحذيرية بعنوان "تمييز كمزعج" مع عدم إتاحته للمستخدمين التي تقل أعمارهم عن 18 عامًا. لا ينص معيار المجتمع على تضمين شاشات تحذيرية فيما يتعلق بخط السياسة المطبقة (مقاطع فيديو لأشخاص أو جثث في سياق طبي إذا كانت تصوّر [...] أحشاء مبقورة"). في حالة فيديو صادم حول السودان، أوضح المجلس أن Meta توجِّه المراجعين باتباع نص سياساتها بشأن "عدم النشر". تنص مبادئ السياسة على أنه "في سياق المناقشات حول قضايا مهمة، مثل انتهاكات حقوق الإنسان أو النزاعات المسلحة أو الأعمال الإرهابية، نسمح بالمحتوى الصادم (مع بعض القيود) لمساعدة الأشخاص على إدانة هذه المواقف وتعزيز الوعي بها". وعلى الرغم من ذلك، فإن قاعدة معيار المجتمع تحظر جميع مقاطع الفيديو التي تصوِّر "الأحشاء المبقورة" في سياق غير طبي دون منح المراجعين خيار إضافة شاشة تحذيرية حيث يُطبَّق استثناء مبادئ السياسة. ويبدو أن أنظمة Meta التلقائية لم يتم تكوينها لتضمين شاشات تحذيرية على مقاطع الفيديو التي تصوِّر محتوى صادمًا في سياق يدين العنف أو يعزز الوعي به. وليس من الواضح كذلك أنه في حالة وجود ذلك السياق، ما إذا كانت أدوات التصنيف المطبقة ستتمكن من إرسال المحتوى إلى المراجعين البشريين لإجراء مزيدٍ من التقييم.
6.2 الامتثال لمسؤوليات شركة Meta تجاه حقوق الإنسان
اتساقًا مع مسؤولياتها تجاه حقوق الإنسان، يتعين في إشراف شركة Meta على المحتوى العنيف والصادم أن يحترم الحق في حرية التعبير، بما يشمل حرية الحصول على المعلومات وتلقيها وتداولها (المادة 19، الفقرة 2، العهد الدولي الخاص بالحقوق المدنية والسياسية (ICCPR)). وكما أورد المجلس في حالة مقطع فيديو لأسرى حرب أرمينيين، فإن أشكال حماية حرية التعبير بموجب المادة 19 من العهد الدولي الخاص بالحقوق المدنية والسياسية "تظل سارية خلال النزاعات المسلحة، ويجب أن تستند إليها مسؤوليات Meta تجاه حقوق الإنسان، جنبًا إلى جنب مع القواعد المكمّلة والتي تعزز بعضها بعضًا والواردة في القانون الإنساني الدولي ويتم تطبيقها خلال تلك النزاعات". تفرض مبادئ الأمم المتحدة التوجيهية بشأن الأعمال التجارية وحقوق الإنسان مسؤولية أكبر على الشركات العاملة في المناطق المتأثرة بالنزاعات ("الأعمال التجارية وحقوق الإنسان والمناطق المتأثرة بالنزاعات: نحو مضاعفة العمل"، A/75/212).
وقد أكد المجلس في حالات سابقة على أن منصات وسائل التواصل الاجتماعي مثل فيسبوك وInstagram، تمثل أدوات مهمة لإرسال المعلومات الفورية حول أحداث العنف، بما يشمل التقارير الإخبارية (راجع على سبيل المثال ذِكر طالبان في التقارير الإخبارية). وهذا لما لها من أهمية خاصة في سياقات النزاعات المسلحة، وبالأخص حيث يتوفر وصول محدود للصحفيين. بالإضافة إلى ذلك، فإن في المحتوى الذي يصوِّر الهجمات العنيفة وانتهاكات حقوق الإنسان مصلحة عامة كبيرة (راجع فيديو صادم حول السودان).
عند فرض الدولة قيودًا على حرية التعبير بموجب القانون الدولي لحقوق الإنسان، يجب أن تلبي تلك القيود متطلبات الشرعية والهدف المشروع والضرورة والتناسب (المادة 19، الفقرة 3، العهد الدولي الخاص بالحقوق المدنية والسياسية). وتتم الإشارة إلى هذه المتطلبات غالبًا باسم "الاختبار الثلاثي". يستخدم المجلس إطار العمل هذا لتفسير التزامات Meta الطوعية تجاه حقوق الإنسان، سواء فيما يتعلق بقرارات المحتوى الفردي التي تخضع للمراجعة وما يعكسه ذلك عن نهْج Meta الأوسع تجاه إدارة المحتوى. وعند القيام بهذا الأمر، يتوخى المجلس مراعاة كيف يمكن لتلك الحقوق أن تختلف عند تطبيقها على شركة خاصة لوسائل التواصل الاجتماعي عن تطبيقها على إحدى الحكومات. وعلى الرغم من ذلك، وبحسب ما ذكره مقرر الأمم المتحدة الخاص المعني بحرية التعبير أنه برغم أن "الشركات لا تتحمل التزامات الحكومات، لكن تأثيرها من النوع الذي يتطلب منها تقييم نفس النوع من الأسئلة المتعلقة بحماية حقوق مستخدميها في حرية التعبير" (تقرير A/74/486، الفقرة 41).
يقتضي متطلب الشرعية ضرورة أن تكون أي قيود على حرية التعبير متاحة وواضحة بما يكفي لتوفير إرشادات حول الأمور المسموح بها وتلك غير المسموح بها. كان المجلس قد سبق وأعرب عن قلقه من أن قواعد معيار المجتمع بشأن المحتوى العنيف والصادم لا تتفق تمامًا مع مبادئ السياسة، وهي المبادئ التي تحدد أهداف السياسة (راجع فيديو صادم حول السودان وفيديو بعد حدوث هجوم على كنيسة في نيجيريا). يؤكد المجلس على أهمية التوصيتين رقم 1 ورقم 2 في حالة "فيديو صادم حول السودان"، حيث طلب فيهما من شركة Meta تعديل معيار مجتمعها بشأن المحتوى العنيف والصادم للسماح بمقاطع الفيديو للأشخاص أو الجثث عند مشاركتها لأغراض تعزيز الوعي بانتهاكات حقوق الإنسان أو توثيقها (تعلقت تلك الحالة بأوصال مقطعة مرئية.) أجرت شركة Meta عملية تطوير سياسات استجابةً لهذه التوصيات، كما تعتزم الشركة إبلاغ المجلس بما تحرزه من تقدم في هذا الشأن في تحديثها ربع السنوي التالي. يرى المجلس ضرورة تطبيق هذه التوصية على قواعد مقاطع الفيديو التي تصوِّر الأحشاء المبقورة، وأن تنص على وجه التحديد على تضمين شاشات تحذيرية كإجراء إنفاذ حيث يتم تطبيق استثناء تعزيز الوعي (بما يشمل الإبلاغ الحقيقي) والإدانة.
بموجب الفقرة 3 من المادة 19 من العهد الدولي الخاص بالحقوق المدنية والسياسية، يجوز تقييد حرية التعبير لمجموعة محددة ومحدودة من الأسباب. سبق وتبيَّن للمجلس أن سياسة المحتوى العنيف والصادم تهدف على نحو مشروع لحماية حقوق الآخرين، بما يشمل حماية خصوصية الشخص الذي يظهر في المحتوى (راجع فيديو صادم حول السودان وفيديو بعد حدوث هجوم على كنيسة في نيجيريا). كما توضح الحالة الحالية أن تقييد الوصول إلى المحتوى للأشخاص الذين تقل أعمارهم عن 18 عامًا قد حقق الهدف المشروع المتمثل في حماية الحق في صحة القاصرين (المادة 24 من اتفاقية حقوق الطفل).
يقتضي مبدأ الضرورة والتناسب أن أي قيود تُفرَض على حرية التعبير "يجب أن تكون مناسبة لتحقيق وظيفتها الحمائية، ويجب أن تكون أقل الوسائل تدخلاً مقارنة بغيرها من الوسائل التي يمكن أن تحقق النتيجة المنشودة، ويجب أن تكون متناسبة مع المصلحة التي ستحميها" (التعليق العام رقم 34، الفقرة 34).
كما تبيَّن للمجلس سابقًا فيما يتعلق بالمحتوى العنيف والصادم، أن الشاشة التحذيرية "لا تشكِّل عبئًا غير ضروري على الأشخاص الذين يرغبون في مشاهدة المحتوى كما أنها تخبر الآخرين بطبيعة المحتوى وتسمح لهم بتحديد ما إذا كانوا يريدون رؤيته أم لا" (راجع فيديو صادم حول السودان). يتجنب المشاهدون من خلال الشاشات التحذيرية المشاهدة دون قصد لمحتوى يُحتمل أن يكون مزعجًا. كما أن سياسة Meta في إزالة مقاطع الفيديو والصور التي تعرض موت شخص بسبب أعمال عنف (أو آثاره المباشرة) بناءً على طلب أحد أفراد أسرته، تكفل مزيدًا من الحماية لحقوق الضحايا. ويمكن تمييز المحتوى في هذه الحالة عن محتوى حالة القصيدة الروسية، والذي كان عبارة عن صورة ثابتة لجثة ملقاة على الأرض من مسافة بعيدة، ولم يكن وجه الضحية مرئيًا، كما لم تكن ثمة مؤشرات مرئية واضحة على وجود عنف. كما جاء تضمين شاشة تحذيرية في تلك الحالة متعارضًا مع إرشادات Meta إلى المراجعين فضلاً عن كونه تقييدًا على حرية التعبير غير ضروري أو غير متناسب. والمحتوى في هذه الحالة أكثر شبهًا بمحتوى فيديو بعد حدوث هجوم على كنيسة في نيجيريا الذي يعرِض جثثًا ومصابين من مسافة قريبة مع وجود مؤشرات مرئية واضحة بدرجة كبيرة على وجود عنف.
وفي هذه الحالة، يضفي تصوير القتلى والمصابين بين الأطفال على مقطع الفيديو لمسة حزن لها وقْع خاص. في مثل هذه الظروف، يُعد توفير خيار للمستخدمين يمكِّنهم من تحديد رغبتهم في مشاهدة محتوى مزعج، إجراءً ضروريًا ومتناسبًا (راجع أيضًا مقطع فيديو لأسرى حرب أرمينيين).
يرى المجلس أن منع وصول توصيات إلى البالغين بشأن المحتوى الذي يعزز الوعي بالانتهاكات المحتملة لحقوق الإنسان وانتهاكات قوانين الحرب والنزاعات أو الأعمال الإرهابية، يشكِّل قيودًا غير ضرورية أو غير متناسبة على حرية التعبير في ضوء المصلحة العامة المرتفعة للغاية المصاحبة لذلك المحتوى. كما أن الشاشات التحذيرية والإزالة من التوصيات تحقق أهدافًا منفصلة، وينبغي في بعض الحالات فصلها، وبالأخص في حالات الأزمات. تنشأ التوصيات على Instagram عبر أنظمة تلقائية تقترح المحتوى على المستخدمين حسب اهتمامات المستخدمين المتوقعة. كما أن إزالة المحتوى من أنظمة التوصية تعني تقليل معدل الوصول الذي كان سيحققه هذا المحتوى لولا تلك الإزالة. يرى المجلس أن هذه الممارسة تتعارض مع حرية التعبير بأوجه غير متناسبة من حيث تطبيقها على المحتوى الذي تم قصره بالفعل على المستخدمين البالغين والذي يُنشر لتعزيز الوعي أو الإدانة أو للإبلاغ عن قضايا تحظى باهتمام عام، مثل تطوُّر نزاع عنيف.
يدرك المجلس أن الاستجابات الفورية لأزمة قد تتطلب اتخاذ تدابير مؤقتة واستثنائية، وفي بعض السياقات من المشروع منح الأولوية للمخاوف بشأن السلامة مع وضْع المزيد من القيود على حرية التعبير على نحوٍ مؤقت ومتناسب. وبعضٌ منها موضح، على سبيل المثال، في الالتزامات بمكافحة "المحتوى المتطرف المتعلق بالإرهاب والعنف، الواردة في دعوة كرايستشيرش. وعلى الرغم من ذلك، ينوِّه المجلس إلى أن دعوة كرايستشيرش تؤكد على الحاجة إلى الاستجابة لذلك المحتوى على نحوٍ يتفق مع حقوق الإنسان والحريات الأساسية. يرى المجلس أن المخاوف بشأن السلامة لا تبرر الخطأ المتمثل في إزالة المحتوى الصادم الذي يستهدف تعزيز الوعي أو يدين جرائم الحرب المحتملة أو الجرائم ضد الإنسانية أو الانتهاكات الجسيمة لحقوق الإنسان. إذ من شأن تلك القيود أن تحجب المعلومات اللازمة لسلامة الأشخاص على أرض الواقع في تلك النزاعات.
ومن شأن التدابير التي لا تتضمن فرض إنذارات أن تساعد بالفعل في التخفيف من حدة الآثار السلبية لأخطاء الإنفاذ التي يُحتمل أن تكون غير متناسبة بسبب التدابير الطارئة مثل التخفيف من حدود الثقة من أجل إزالة المحتوى خلال حالات النزاع. وعلى الرغم من ذلك، فهي ليست كافية لحماية قدرة المستخدمين على مشاركة المحتوى الذي يستهدف تعزيز الوعي بالانتهاكات المحتملة لحقوق الإنسان وانتهاكات القانون الإنساني وغيرها من المعلومات المهمة في حالات النزاع.
وقد سلَّط المجلس الضوء على نحوٍ متكرر على الحاجة إلى وضع إطار عمل يستند إلى المبادئ ويتسم بالشفافية خلال الأزمات وفي مناطق النزاعات (راجع فيديو مركز الشرطة في هايتي ومكتب تيجراي لشؤون الاتصالات). وعلى وجه التحديد في أوقات النزاع التي تشهد تغييرات سريعة، يتعين على شركات وسائل التواصل الاجتماعي الكبيرة أن تخصص الموارد اللازمة لضمان عدم تقليص حرية التعبير دون داعٍ. في تلك الأوقات، غالبًا ما تكون المصادر الصحفية عُرضة للاعتداءات البدنية واعتداءات أخرى، الأمر الذي يعطي للتقارير الإخبارية من المواطنين العاديين على وسائل التواصل الاجتماعي أهمية جوهرية.
كما سبق ولاحظ المجلس أنه في سياق الحرب أو عدم الاستقرار السياسي، سيسجل المستخدمون المزيد من المحتوى الصادم والعنيف ويشاركونه على المنصة بغرض تعزيز الوعي بالانتهاكات أو توثيقها (راجع فيديو صادم حول السودان). وفي سياقات مثل النزاع الدائر بين إسرائيل وغزة، حيث الأعداد المثيرة للقلق من القتلى أو المصابين بين المدنيين وبينهم نسبة مرتفعة من الأطفال في ظل أزمة إنسانية تزداد سوءًا، تكون لهذه الأنواع من الاستثناءات أهمية خاصة. ورغم إقرار المجلس بعملية تطوير السياسات الجارية حاليًا لدى Meta بشأن سياسة المحتوى العنيف والصادم، يأمل المجلس من Meta أن تعجِّل بنشر تدابير مؤقتة للسماح بهذا النوع من المحتوى مع تضمين شاشات تحذيرية وعدم إزالته من التوصيات.
وينوِّه المجلس إلى أن الموقف في غزة وقت نشْر هذا المحتوى لم ينطو على نفس مجموعة التحديات أمام Meta مقارنةً بهجمات السابع من أكتوبر. ففي غزة، ثمة صعوبات في الحصول على معلومات من الأشخاص على أرض الواقع يصاحبها تقييد في سبُل وصول الصحفيين إلى القطاع مع تعطُّل الاتصال بالإنترنت. إضافةً إلى ذلك، وخلافًا للآثار الأولية التي خلَّفتها هجمات السابع من أكتوبر، فإن الوضع في غزة في هذه الحالة لم يكن فيه إرهابيون يستخدمون وسائل التواصل الاجتماعي لبث ما يرتكبونه من فظائع. وبالمقابل، في سياق النزاع المسلح، ينبغي لشركة Meta أن تضمن أن ما تتخذه من إجراءات لن يزيد من صعوبة مشاركة الأفراد للمحتوى الذي يقدم معلومات تعزز من الوعي بالأضرار التي تلحق بالمدنيين، والذي ربما يكون مفيدًا في البت في وقوع انتهاكات للقانون الإنساني الدولي وقانون حقوق الإنسان. وينبغي لمسألة ما إذا كانت مشاركة المحتوى تستهدف تعزيز الوعي أو إدانة الأحداث الميدانية، أن تشكِّل نقطة الانطلاق لأي مراجِع يقيِّم ذلك المحتوى، كما ينبغي أن يراعى في تصميم أنظمة Meta التلقائية أن تتجنب الإزالة الخاطئة للمحتوى الذي ينبغي أن يستفيد من الاستثناءات المطبقة.
كما توضح هذه الحالة أن الإشراف البشري غير الكافي على الإشراف التلقائي في سياق الاستجابة للأزمات من شأنه أن يؤدي إلى الإزالة الخاطئة للخطاب الذي ربما يحظى باهتمام عام كبير. وقد صدر القرار المبدئي بإزالة هذا المحتوى جنبًا إلى جنب مع قرار رفض طعن المستخدم تلقائيًا بناءً على درجة أداة التصنيف دون أي مراجعة بشرية. وهذا الأمر، بدوره، ربما زادت من حدته استجابة Meta للأزمات من حيث خفض حدود إزالة المحتوى بموجب سياسة المحتوى العنيف والصادم في أعقاب هجمات السابع من أكتوبر. وهذا يعني أنه حتى وإن أعطت أداة التصنيف درجة أقل نسبيًا لاحتمال المخالفة مما قد يكون مطلوبًا عادةً، فإن Meta تزيل ذلك المحتوى.
ومن أجل استخدام Meta لأنظمتها التلقائية على نحوٍ يتفق مع التزاماتها تجاه حقوق الإنسان، يلفِت المجلس انتباه الشركة إلى التوصية رقم 1 في حالة الرسم الكاريكاتوري للشرطة الكولومبية. في تلك الحالة، طلبَ المجلس من Meta أن تضمن إعادة تقييم المحتوى الذي يكثر تقديم طعون بشأنه ويكثر قبول تلك الطعون للنظر في إمكانية إزالته من بنوك خدمة مطابقة الوسائط لديها. واستجابةً لهذه التوصية، شكِّلت Meta مجموعة عمل محددة معنية بتحسينات الحوكمة على مستوى بنوك خدمة مطابقة الوسائط لديها (راجع آخر تحديثات Meta بشأن هذا الأمر هنا). ينوِّه المجلس إلى أنه من المهم لهذه المجموعة أن تولي عناية خاصة لاستخدام خدمات مطابقة الوسائط في سياق النزاعات المسلحة. في حالة أعراض سرطان الثدي والعُري (التوصيتان رقم 3 و6)، أوصى المجلس شركة Meta بإبلاغ المستخدمين متى تُستخدم الأتمتة لاتخاذ قرار إنفاذ ضد المحتوى الخاص بهم، كما أوصاها بالإفصاح عن البيانات المتعلقة بعدد قرارات الإزالة التلقائية بناءً على معيار المجتمع ونسبة القرارات التي تم إلغاؤها بعد المراجعة البشرية. ولهذا أهميته الخاصة عندما تردَّد أن حدود الثقة للمحتوى الذي يُحتمل أن يكون مخالفًا، قد تم خفضها بدرجة كبيرة. يحث المجلس Meta على إحراز المزيد من التقدم في تنفيذ التوصية رقم 6 وأن ترسِل إلى المجلس ما يثبت تنفيذها التوصية رقم 3.
يجب ألا تميز القيود المفروضة على حرية التعبير بين الأفراد، بما في ذلك على أساس الجنسية أو العرق أو الدين أو المعتقد أو الآراء السياسية أو غيرها من الآراء (المادة 2، الفقرة 1، والمادة 26 من العهد الدولي الخاص بالحقوق المدنية والسياسية). ويشكِّل الإنفاذ التمييزي لمعايير المجتمع تقويضًا لهذا الجانب الجوهري من حرية التعبير. في حالة مشاركة منشور الجزيرة، أثار المجلس مخاوف جدية من أن الأخطاء في الإشراف على محتوى Meta في إسرائيل والأراضي الفلسطينية المحتلة قد توزَّع على نحو غير عادل، كما طالبَ بإجراء تحقيق مستقل (قرار مشاركة منشور الجزيرة، التوصية رقم 3). كشف تقييم تأثير حقوق الإنسان الذي أجرته مؤسسة "الأعمال من أجل المسؤولية الاجتماعية"، والتي استعانت بها Meta استجابةً منها لتلك التوصية عن "حالات متنوعة للتحيز غير المعتمد حيث تبيَّن أن سياسة Meta وممارساتها جنبًا إلى جنب مع الآليات الخارجية الأوسع نطاقًا، تؤدي بالفعل إلى إحداث تأثيرات مختلفة على صعيد حقوق الإنسان على المستخدمين الفلسطينيين والمستخدمين الذين يتحدثون اللغة العربية". يحث المجلس Meta على تنفيذ الالتزامات التي أعلنتها استجابةً لتقرير مؤسسة "الأعمال من أجل المسؤولية الاجتماعية".
وختامًا، تقع على عاتق Meta مسؤولية الاحتفاظ بأدلة تثبت الانتهاكات المحتملة لحقوق الإنسان وانتهاكات القانون الإنساني الدولي، حسبما يوصي به أيضًا تقرير مؤسسة "الأعمال من أجل المسؤولية الاجتماعية" (التوصية رقم 21) وتدعو إليه مجموعات المجتمع المدني. حتى عند إزالة المحتوى من منصات Meta، من الضروري الاحتفاظ بتلك الأدلة لأغراض المساءلة في المستقبل (راجع فيديو صادم حول السودان ومقطع فيديو لأسرى حرب أرمينيين). وعلى الرغم من أن Meta قد أوضحت أنها تحتفظ لفترة سنة واحدة بكل المحتوى الذي يخالف معايير مجتمعها، يحثها المجلس على تحديد المحتوى المرتبط على وجه الخصوص بجرائم الحرب المحتملة أو الجرائم ضد الإنسانية أو الانتهاكات الجسيمة لحقوق الإنسان والاحتفاظ به على نحوٍ مستمر ويمكن الوصول إليه لأغراض مساءلة أطول أمدًا. وينوِّه المجلس على أن Meta قد وافقت على تنفيذ التوصية رقم 1 في حالة مقطع فيديو لأسرى حرب أرمينيين. وقد تطلب ذلك من Meta وضْع بروتوكول للحفاظ على المعلومات، ومشاركتها عند الاقتضاء، مع السلطات المختصة للمساعدة في التحقيقات والإجراءات القانونية التي تهدف إلى تحقيق العدالة أو ملاحقة مرتكبي الجرائم الفظيعة أو الانتهاكات الجسيمة لحقوق الإنسان. وقد أبلغت Meta المجلس بأنها في المراحل النهائية لوضع "نهج ثابت للاحتفاظ بالأدلة المحتملة لارتكاب جرائم فظيعة أو انتهاكات جسيمة للقانون الدولي لحقوق الإنسان" وتتوقع أن تقدِّم إلى المجلس إيجازًا بشأن نهجها قريبًا. ويتوقع المجلس من Meta تنفيذ التوصية الواردة أعلاه بالكامل.
*ملاحظة إجرائية:
يتم إعداد القرارات العاجلة لمجلس الإشراف من قِبل لجان مكونة من خمسة أعضاء ولا يشترط لها موافقة أغلبية المجلس بكامل هيئته. ولا يلزم بالضرورة أن تُعبّر قرارات المجلس عن وجهات النظر الشخصية لجميع الأعضاء.
العودة إلى قرارات الحالة والآراء الاستشارية المتعلقة بالسياسة