مجلس الإشراف يُصدر أولى قراراته العاجلة بشأن النزاع بين إسرائيل وحماس
تم النشر بتاريخ 19 كانُون الْأَوَّل 2023
اليوم، نشر مجلس الإشراف أولى قراراته العاجلة بشأن حالتين عن النزاع بين إسرائيل وحماس. تم البت في الحالتين اللتين أُعلن عنهما في 7 ديسمبر وفق إطار زمني عاجل لا يزيد عن 12 يومًا. ويتعين على المجلس إصدار القرارات العاجلة في غضون 30 يومًا.
اختار المجلس هاتين الحالتين نظرًا لأهمية حرية التعبير في حالات النزاع. وتشكّل الحالتان نماذج لأنواع الطعون التي يقدمها المستخدمون في المنطقة إلى المجلس منذ هجمات السابع من أكتوبر. تتعلق حالة منهما بمقطع فيديو نُشر على فيسبوك لامرأة إسرائيلية وهي تتوسل لآسريها كي لا يقتلوها أثناء اقتيادها كرهينة في هجمات السابع من أكتوبر على إسرائيل والتي وُصفت بأنها إرهابية. وتتضمن الحالة الأخرى مقطع فيديو نُشر على Instagram يصوِّر ما يبدو أنه آثار غارة على مستشفى الشفاء في غزة أو بالقرب منه خلال العملية البرية الإسرائيلية في شمال قطاع غزة. يعرض المنشور قتلى وجرحى من الفلسطينيين ومن بينهم أطفال.
ألغى المجلس في الحالتين قرار Meta الأصلي بإزالة المحتوى من منصاتها لكنه وافق على قرار الشركة اللاحق باستعادة المنشورات مع إضافة شاشة تحذيرية لها.
يمكنك الاطلاع على القرارات الكاملة للمجلس من هنا.
النتائج الرئيسية
ناقشت قرارات المجلس عدد من جوانب أداء Meta خلال الأزمة التي أثرت في حرية التعبير.
واستجابةً للزيادة الاستثنائية في المحتوى العنيف والصادم على منصاتها بعد هجمات السابع من أكتوبر، خفضت Meta مؤقتًا حدود الثقة في أنظمة التصنيف التلقائي (أدوات التصنيف) التي تكتشف وتزيل المحتوى الذي ينتهك سياساتها بشأن المحتوى العنيف والصادم، والخطاب الذي يحض على الكراهية، والعنف والتحريض، والإساءة والمضايقة. وجرى تطبيق تلك التدابير على المحتوى الصادر من إسرائيل وغزة بجميع اللغات.
ويعني ذلك أن Meta استخدمت أدواتها التلقائية على نحوٍ أكثر صرامة لإزالة المحتوى الذي قد يخالف سياساتها. وعلى الرغم من أن ذلك قد قلل من احتمالية إخفاق Meta في إزالة المحتوى المخالف الذي ربما تفادى الاكتشاف بطريقة أو بأخرى أو بسبب محدودية السعة الاستيعابية للمراجعة البشرية، فقد تسبب أيضًا في تعزيز احتمالية قيام Meta عن طريق الخطأ بإزالة محتوى غير مخالف يتعلق بالنزاع.
توضح حالة مستشفى الشفاء أن الافتقار إلى الرقابة البشرية الكافية على الإشراف التلقائي أثناء الاستجابة للأزمات من شأنه أن يؤدي إلى مجانبة الصواب بإزالة الخطاب الذي ربما يحظى باهتمام عام كبير. وقد صدر القرار المبدئي تلقائيًا بإزالة هذا المحتوى ورفض الطعن المقدم من المستخدم بناءً على درجة أداة التصنيف دون أي مراجعة بشرية. وربما تفاقم هذا الأمر بسبب استجابة Meta للأزمة من خلال خفض حد إزالة المحتوى بموجب سياسة المحتوى العنيف والصادم في أعقاب هجمات السابع من أكتوبر.
في كلتا الحالتين، اللتين راجعهما المجلس، خفضت Meta ترتيب المحتوى الذي طبقت عليه شاشات تحذيرية، مما أدى إلى عدم ظهوره في التوصيات لمستخدمي فيسبوك أو Instagram الآخرين، على الرغم من أن الشركة قررت أن المنشورات تهدف إلى تعزيز الوعي.
يُلاحظ من حالة الرهائن الإسرائيليين أن الموقف المبدئي لسياسة Meta، بشأن السابع من أكتوبر كان ينص على إزالة "صور الجهات الخارجية التي تصوّر لحظة وقوع الهجمات [المصنّفة] على ضحايا واضحين"، وفقًا لسياستها بشأن المنظمات الخطرة والأفراد الخطرين. ويتفق المجلس مع هذا الموقف المبدئي مؤكدًا على أن حماية سلامة الرهائن وكرامتهم يجب أن تمثل النهج الافتراضي لشركة Meta. مع هذا، يرى المجلس أن قرار Meta اللاحق الذي ينص على السماح بهذا المحتوى مصحوبًا بشاشة تحذيرية عند مشاركته لأغراض الإدانة أو تعزيز الوعي أو نشر التقارير الإخبارية أو الدعوة إلى إطلاق سراحهم كان مبررًا. في الواقع، ونظرًا للظروف سريعة التغير، وارتفاع تكاليف حرية التعبير والوصول إلى المعلومات لإزالة هذا النوع من المحتوى، كان على Meta التحرك سريعًا لمواءمة سياستها.
أكدت Meta أنها بدأت بحلول 20 أكتوبر أو نحو ذلك السماح بالمحتوى الذي يصوّر اقتياد الرهائن ضمن هجمات السابع من أكتوبر، لكنها قصرت ذلك في البداية على الحسابات المدرجة بقوائم برنامج التحقق الشامل الخاص بالشركة. ولم يتسع ذلك ليشمل جميع الحسابات إلا بحلول 16 نوفمبر، لينطبق ذلك فقط على المحتوى المنشور بعد هذا التاريخ.
يسلط ذلك الضوء على بعض المخاوف السابقة للمجلس بشأن برنامج التحقق الشامل بما في ذلك عدم المساواة في معاملة المستخدمين، والافتقار إلى وجود معايير شفافة للإدراج في قوائم برنامج التحقق الشامل الخاص بشركة Meta والحاجة إلى ضمان تمثيل أكبر للمستخدمين المرجّح أن يحظى المحتوى الخاص بهم بالأهمية من منظور حقوق الإنسان في تلك القوائم. وتتعارض الاستعانة ببرنامج التحقق الشامل بهذه الطريقة أيضًا مع الكيفية التي وصفت بها Meta البرنامج وشرحت الغرض منه، باعتباره برنامجًا لمنع الأخطاء وليس برنامجًا يوفر لبعض المستخدمين المتميزين قواعد أكثر تساهلاً.
وختامًا، تقع على عاتق Meta مسؤولية الاحتفاظ بأدلة تثبت الانتهاكات المحتملة لحقوق الإنسان وانتهاكات القانون الإنساني الدولي. حتى عند إزالة المحتوى من منصات Meta، من الضروري الاحتفاظ بتلك الأدلة لأغراض المساءلة في المستقبل. وعلى الرغم من أن Meta قد أوضحت أنها تحتفظ لفترة سنة واحدة بكل المحتوى الذي يخالف معايير مجتمعها، يحثها المجلس على تحديد المحتوى المرتبط على وجه الخصوص بجرائم الحرب المحتملة أو الجرائم ضد الإنسانية أو الانتهاكات الجسيمة لحقوق الإنسان والاحتفاظ به على نحوٍ مستمر ويمكن الوصول إليه لأغراض مساءلة أطول أمدًا.
بالإضافة إلى ذلك، كرر المجلس الحاجة المُلحة للعمل وفقًا للتوجيهات التالية للإشراف على المحتوى:
- في وقت سابق من هذا العام، تعهدت Meta بتطوير بروتوكول للاحتفاظ بالمحتوى الذي يمكن أن يساعد في تحقيقات الجرائم الفظيعة أو انتهاكات حقوق الإنسان. وفي حين أشارت Meta إلى أنها في المراحل النهائية من تطوير البروتوكول، على الشركة أن تثبت فورًا النهج الذي تتبعه في هذا المجال خلال النزاع الحالي ( التوصية رقم 1 في حالة مقطع فيديو لأسرى حرب أرمينيين).
- يجب أن يعاد تقييم المحتوى الذي يتم اكتشافه من خلال بنوك خدمة مطابقة الوسائط لتحديد ما إذا كان مخالفًا إذا تكرر تقديم طعون ناجحة بشأنه ( التوصية رقم 1 في حالة الرسم الكاريكاتوري للشرطة الكولومبية).
- نصح المجلس Meta بإبلاغ المستخدمين عند استخدام الأتمتة لاتخاذ إجراء الإنفاذ ضد المحتوى الخاص بهم. تذكر Meta أنها انتهت من تنفيذ هذه التوصية على مستوى العالم، ولكن لا يزال عليها أن تقدم للمجلس ما يفيد ذلك ( التوصية رقم 3 في حالة أعراض سرطان الثدي والعُري).
ملاحظة: مجلس الإشراف عبارة عن مؤسسة مستقلة تدرس قرارات Meta بإزالة المحتوى أو تركه على فيسبوك وInstagram في عدد محدد من الحالات التي لها دلالة رمزية. يُجري المجلس مراجعة، ويُلغي قرارات الشركة، إذا لزم الأمر. وتكون قرارات المجلس ملزمة لشركة Meta.