قرار قضية متعددة

الادعاءات الجنائية استنادًا إلى الجنسية

لقد راجع المجلس ثلاث حالات معًا تحتوي جميعها على ادعاءات جنائية ضد أشخاص استنادًا إلى الجنسية. وفي ظل إلغاء أحد قرارات Meta بشأن إزالة منشور على فيسبوك، نظر المجلس في كيفية إثارة هذه الحالات القضية الأوسع نطاقًا والمتعلقة بكيفية التمييز بين المحتوى الذي ينتقد إجراءات الدولة وسياساتها من جانب، وبين الهجمات ضد الأشخاص على أساس جنسياتهم من جانب آخر.

3 تم تضمين من الحالات في هذه الحزمة

أسقط

FB-25DJFZ74

حالة بشأن خطاب يحض على الكراهية على فيسبوك

منصة
Facebook
عنوان
حرية التعبير,حرب وصراع
معيار
الخطاب الذي يحض على الكراهية
موقع
روسيا,الولايات المتحدة
Date
تم النشر بتاريخ تم النشر بتاريخ 25 أَيْلُول 2024
أيد

IG-GNKFXL0Q

حالة بشأن خطاب يحض على الكراهية على Instagram

منصة
Instagram
عنوان
حرية التعبير,حرب وصراع
معيار
الخطاب الذي يحض على الكراهية
موقع
الهند,باكستان
Date
تم النشر بتاريخ تم النشر بتاريخ 25 أَيْلُول 2024
أيد

TH-ZP4W1QA6

‎Case about hate speech on Threads‎

منصة
Threads
عنوان
حرية التعبير,حرب وصراع
معيار
الخطاب الذي يحض على الكراهية
موقع
إسرائيل
Date
تم النشر بتاريخ تم النشر بتاريخ 25 أَيْلُول 2024

ملخص

لقد راجع المجلس ثلاث حالات معًا تحتوي جميعها على ادعاءات جنائية ضد أشخاص استنادًا إلى الجنسية. وفي ظل إلغاء أحد قرارات Meta بشأن إزالة منشور على فيسبوك، نظر المجلس في كيفية إثارة هذه الحالات القضية الأوسع نطاقًا والمتعلقة بكيفية التمييز بين المحتوى الذي ينتقد إجراءات الدولة وسياساتها من جانب، وبين الهجمات ضد الأشخاص على أساس جنسياتهم من جانب آخر. وبتقديم توصيات لتعديل سياسة Meta بشأن الخطاب الذي يحض على الكراهية ومواجهة تحديات الإنفاذ، اختار المجلس اتباع منهج دقيق يعمل من أجل الإشراف على نطاق واسع، مع وضع حواجز لمنع أي عواقب سلبية. وفي إطار القاعدة ذات الصلة للخطاب الذي يحض على الكراهية، يجب على Meta أن تضع استثناءً لفئات فرعية أكثر تحديدًا تستخدم إشارات موضوعية لتحديد ما إذا كان هدف هذا المحتوى هو دولة أو سياساتها، أو مجموعة من الأشخاص.

حول الحالات

في الحالة الأولى، وصف منشور على فيسبوك الروسيين والأمريكيين بأنهم "مجرمون"، ووصف المستخدم الأخيرين بأنهم "أكثر شرفًا" لأنهم يعترفون بجرائمهم مقارنةً بالروسيين الذين "يريدون الاستفادة من جرائم" الأمريكيين. وتم إرسال هذا المنشور للمراجعة البشرية بواسطة أنظمة Meta التلقائية، ولكن تم إغلاق البلاغ تلقائيًا، وهو السبب وراء عدم إزالة المحتوى من فيسبوك. وبعد ثلاثة أشهر، عندما اختارت Meta هذه الحالة لإحالتها إلى المجلس، قرر الخبراء المتخصصون في سياسة Meta أن المنشور ينتهك معيار المجتمع بشأن الخطاب الذي يحض على الكراهية، وقاموا بإزالته. وعلى الرغم من أن المستخدم تقدَّم بطعن، إلا أن Meta قررت أن إزالة المحتوى كان قرارًا صحيحًا بعد إجراء مراجعة بشرية إضافية.

بالنسبة للحالة الثانية، قام أحد المستخدمين بالرد على تعليق في منشور على Threads. وكان المنشور عبارة عن مقطع فيديو عن الصراع بين إسرائيل وغزة، وكتب أحدهم تعليقًا يقول: "هل هي إبادة جماعية للأنفاق الإرهابية؟" وكان رد المستخدم: "إبادة جماعية… كل الإسرائيليين مجرمون". وتم إرسال هذا المحتوى للمراجعة البشرية بواسطة أنظمة Meta التلقائية، ثم تمت إزالته لانتهاكه قواعد الخطاب الذي يحض على الكراهية.

أما الحالة الثالثة فهي لتعليق أحد المستخدمين على منشور على Instagram وصف فيه "جميع الهنود" بأنهم "مغتصِبين". ويُظهر المنشور الأصلي على Instagram مقطع فيديو تظهر فيه امرأة محاطة برجال يبدو أنهم ينظرون إليها. وقامت Meta بإزالة التعليق بموجب قواعد الخطاب الذي يحض على الكراهية.

أحالت Meta الحالات الثلاث إلى المجلس. تتسم تحديات التعامل مع الادعاءات الجنائية الموجهة ضد الأشخاص استنادًا إلى الجنسية بأهمية خاصة أثناء الأزمات والصراعات عند "احتمالية تفسيرها على أنها تهاجم سياسات الدولة أو حكومتها أو جيشها بدلاً من شعبها"، وذلك وفقًا للشركة.

أهم النتائج

تبيَّن للمجلس أن Meta كانت مخطئة بشأن إزالة منشور فيسبوك في الحالة الأولى، والذي يتحدث عن الروسيين والأمريكيين؛ وذلك لوجود إشارات تشير إلى أن المحتوى يستهدف الدول وليس المواطنين. ولا تسمح Meta "بالخطاب الازدرائي في شكل استهداف لشخص أو مجموعة أشخاص" على أساس الجنسية من خلال مقارنتهم "بالمجرمين"، وذلك بموجب قواعدها بشأن الخطاب الذي يحض على الكراهية. ومع ذلك، فإن الإشارات التي يتضمنها هذا المنشور بشأن الجرائم التي ارتكبها الروسيون والأمريكيون تستهدف على الأرجح الدول المعنيَّة أو سياساتها، وهو استنتاج أكده تقرير لأحد الخبراء بتكليف من المجلس.

في الحالتين الثانية والثالثة، اتفق أغلبية أعضاء المجلس مع Meta على أن المحتوى يخالف القواعد عبر استهداف الأشخاص على أساس الجنسية، وذلك لاحتوائه على إشارات إلى "جميع الإسرائيليين" و"جميع الهنود" تشير إلى استهداف الأشخاص. ولا توجد أدلة سياقية تشير إلى تعرُّض الإجراءات التي تتخذها الدولة الإسرائيلية أو سياسات الحكومة الهندية بالترتيب لانتقادات في المحتوى. لذلك، كان ينبغي إزالة المحتوى في كلتا الحالتين. ومع ذلك، لم توافق الأقلية في المجلس على ذلك، مشيرين إلى أن إزالة المحتوى في هذه الحالات لم تكن الوسيلة الأقل تدخلاً المتاحة لشركة Meta لمعالجة الأضرار المحتملة. ولاحظ أعضاء المجلس هؤلاء أن Meta لم تنجح في تلبية مبادئ الضرورة والتناسب في إزالة المحتوى.

فيما يتعلق بمسألة تغييرات السياسة على نطاق أوسع، يرى المجلس أن هناك حاجة إلى منهج دقيق وقابل للتطوير لحماية الخطاب السياسي الملائم دون زيادة خطر إلحاق الضرر بالمجموعات المستهدفة. أولاً، يجب أن تعثر Meta على إشارات محددة وموضوعية تعمل على تقليل معدل الإزالة عن طريق الخطأ والمحتوى الضار الذي يتم الإبقاء عليه.

قرر المجلس، بدون تقديم قائمة شاملة بالإشارات، أنه يجب أن تسمح Meta بالادعاءات الجنائية عندما تكون موجهة إلى مجموعة معينة من المحتمل أن تكون بمثابة وكيل عن الدولة، مثل الشرطة والجيش والجنود والحكومة وغيرها من الجهات المسؤولة بالدولة. وهناك إشارة موضوعية أخرى تتعلق بطبيعة الجريمة المزعومة، مثل الجرائم الوحشية أو الانتهاكات الخطيرة لحقوق الإنسان، والتي عادةً ما ترتبط بالدول. ويعني ذلك أنه سيتم التعامل مع المنشورات التي ترتبط فيها أنواع معينة من الجرائم بالجنسية على أنها خطاب سياسي ينتقد تصرفات الدولة ولن تتم إزالتها من المنصة.

بالإضافة إلى ذلك، قد تنظر Meta في الإشارات اللغوية التي يمكن أن تميز بين البيانات السياسية والهجمات ضد الأشخاص على أساس الجنسية. وفي ظل اختلاف هذه الفروق من لغة إلى أخرى؛ وهو ما يجعل سياق المنشورات أكثر صعوبة، اقترح المجلس أن وجود أداة التعريف أو عدم وجودها يمكن أن يكون إشارة في حد ذاته. فعلى سبيل المثال، يمكن أن تشير كلمات مثل "الجميع" ("جميع الأمريكيين يرتكبون جرائم") أو "ال" ("الأمريكيون يرتكبون جرائم") إلى أن المستخدم يقوم بالتعميم بشأن مجموعة كاملة من الأشخاص، بدلاً من دولتهم نفسها.

سيؤدي اتّباع منهج سياسي أكثر دقة إلى خلق تحديات في الإنفاذ، وهو ما أشارت إليه Meta ويُقر به المجلس. ويلاحظ المجلس أنه بإمكان Meta إنشاء قوائم بأسماء الجهات الفاعلة والجرائم التي من المحتمل بشكل كبير أن تشير إلى سياسات الدولة أو الجهات الفاعلة لديها. وقد تشمل إحدى هذه القوائم الشرطة والجيش والجنود والحكومة والمسؤولين الحكوميين الآخرين. وفيما يتعلق بالصور ومقاطع الفيديو، يمكن للمراجعين البحث عن أدلة مرئية في المحتوى، مثل الأشخاص الذين يرتدون الزي العسكري. وعندما يتم دمج هذا الدليل مع التعميم فيما يتعلق بالإجرام، قد يدل ذلك على أن المستخدم يشير إلى إجراءات الدولة أو الجهات الفاعلة لديها، بدلاً من مقارنة الأشخاص بالمجرمين.

يحُث المجلس شركة Meta على السعي إلى اتخاذ تدابير إنفاذ تهدف إلى توعية المستخدمين وتمكينهم عند تقييد حرية التعبير. واستجابةً لإحدى توصيات المجلس السابقة، التزمت Meta بالفعل بإرسال إشعارات إلى المستخدمين بشأن الانتهاكات المحتملة لمعيار المجتمع. ويعتبر المجلس هذا التنفيذ بمثابة خطوة مهمة نحو توعية المستخدمين وتمكينهم على منصات Meta.

قرار مجلس الإشراف

يلغي مجلس الإشراف قرار Meta بإزالة المحتوى في الحالة الأولى، ويطالبها باستعادة المنشور. وبالنسبة للحالتين الثانية والثالثة، يؤيد المجلس قرارات Meta بإزالة المحتوى.

يوصي المجلس Meta بما يلي:

  • تعديل معيار المجتمع بشأن الخطاب الذي يحض على الكراهية، وتحديدًا القاعدة التي لا تسمح "بالخطاب الازدرائي في شكل مقارنات أو تعميمات حول المجرمين" والموجه إلى الأشخاص على أساس الجنسية، ليشمل استثناءً على النحو التالي: "باستثناء أن تشير الجهات الفاعلة (مثل الشرطة والجيش والجنود والحكومة ومسؤولو الدولة) و/أو الجرائم (مثل الجرائم الوحشية أو الانتهاكات الخطيرة لحقوق الإنسان، مثل تلك المحددة في نظام روما الأساسي للمحكمة الجنائية الدولية) ضمناً إلى إشارة إلى الدولة بدلاً من استهداف الأشخاص على أساس الجنسية".
  • نشر نتائج عمليات التدقيق الداخلي التي تجريها لتقييم دقة المراجعة البشرية وأداء الأنظمة التلقائية في إنفاذ سياستها بشأن الخطاب الذي يحض على الكراهية. وينبغي عرض النتائج بطريقة تسمح بمقارنة هذه التقييمات عبر اللغات و/أو المناطق.

* توفر ملخصات الحالة نظرة عامة على الحالات ولا تُشكّل سابقة قانونية.

القرار الكامل للمجلس بشأن الحالة

1. وصف الحالة ومعلومات أساسية عنها

هذه الحالات متعلقة بثلاثة قرارات اتخذتها شركة Meta بخصوص المحتوى، بواقع حالة واحدة في فيسبوك وأخرى في Threads وثالثة في Instagram. وأحالت Meta الحالات الثلاث إلى المجلس.

تتعلق الحالة الأولى بمنشور على فيسبوك باللغة العربية يعود إلى ديسمبر 2023، وينص على أن الروسيين والأمريكيين "مجرمون". ويقول المحتوى أيضًا أن "الأميركيين أكثر شرفًا" لأنهم "يعترفون بجرائمهم" مقارنةً بالروسيين الذين "يريدون الاستفادة من جرائم" الأميركيين. وبعد قيام إحدى أدوات التصنيف التلقائية في Meta (أداة تصنيف الخطاب العدائي) بتحديد المحتوى على أنه يشكّل انتهاكًا محتملاً، تم إرساله إلى المراجعة البشرية. ومع ذلك، تم إغلاق الأمر تلقائيًا؛ وبالتالي لم تتم مراجعة المحتوى ولم تتم إزالته من فيسبوك. في مارس 2024، عندما حددت Meta هذا المحتوى لإحالته إلى المجلس، قرر الخبراء المتخصصون في سياسة الشركة أن المنشور ينتهك معيار المجتمع بشأن الخطاب الذي يحض على الكراهية. ثم تمت إزالته من فيسبوك. وتقدَّم المستخدم الذي نشر المحتوى بطعن إلى Meta على هذا القرار. وبعد مرحلة أخرى من المراجعة البشرية، قررت الشركة أن إزالة المحتوى في هذه الحالة كانت صحيحة.

الحالة الثانية تتعلق برد أحد المستخدمين باللغة الإنجليزية على تعليق على منشور في Threads يعود إلى يناير 2024. وكان المنشور عبارة عن مقطع فيديو يناقش الصراع بين إسرائيل وغزة، ويحتوي على تعليق يشير إلى "إبادة جماعية لأنفاق الإرهاب" وينتهي بعلامة استفهام. وجاء في الرد "إبادة جماعية" وذَكَرَ أن "جميع الإسرائيليين مجرمون". وقامت إحدى أدوات التصنيف التلقائية في Meta (أداة تصنيف الخطاب العدائي) بتحديد المحتوى على أنه يشكّل انتهاكًا محتملاً. وبعد المراجعة البشرية، أزالت Meta الرد على التعليق لانتهاكه معيار مجتمعها بشأن الخطاب الذي يحض على الكراهية. كما قرر أيضًا الخبراء المتخصصون في سياسة Meta أن القرار الأصلي بإزالة المحتوى كان صحيحًا، وذلك بعد أن حددت الشركة هذه الحالة لإحالتها إلى المجلس.

أما الحالة الثالثة فهي لتعليق لأحد المستخدمين باللغة الإنجليزية على منشور على Instagram يعود إلى مارس 2024، جاء فيه "من وجهة نظري كباكستاني" "جميع الهنود مغتصِبون". وجاء التعليق ردًا على مقطع فيديو لامرأة محاطة بمجموعة من الرجال الذين يبدو أنهم ينظرون إليها. وأزالت Meta التعليق بعد قيام إحدى أدوات التصنيف التلقائية لديها (أداة تصنيف الخطاب العدائي) بتحديد التعليق على أنه يشكّل انتهاكًا محتملاً لمعيار المجتمع بشأن الخطاب الذي يحض على الكراهية. وبعد قيام Meta بتحديد هذا المحتوى لإحالته إلى المجلس، قرر الخبراء المتخصصون في سياسة الشركة أن القرار الأصلي بإزالة المحتوى كان صحيحًا.

لم يتقدَّم المستخدمون في أي من الحالات الثلاث إلى المجلس بأي طعون على قرارات Meta، لكن Meta أحالت جميع الحالات الثلاث.

وفقًا لتقارير الخبراء بتكليف من المجلس، فإن "اتهامات السلوك الإجرامي ضد الدول وكيانات الدولة والأفراد منتشرة على منصات Meta وفي الخطاب العام". وتزايدت المواقف السلبية تجاه روسيا على وسائل التواصل الاجتماعي منذ بداية الغزو الروسي لأوكرانيا في فبراير 2022. ووفقا للخبراء، غالبًا ما يتم اتهام المواطنين الروسيين على وسائل التواصل الاجتماعي بدعم سياسات سلطاتهم، بما في ذلك العدوان الروسي على أوكرانيا. ولكن نادرًا ما يتم وصف المواطنين الروسيين بأنهم "مجرمون"، وهي كلمة تُستخدَم بشكل أكثر تكرارًا في الإشارة إلى القيادة السياسية الروسية وجنود الجيش الروسي. ووفقًا للخبراء اللغويين الذين تشاور معهم المجلس، يمكن استخدام الترجمة العربية لكلمتي "أمريكيون" و"روسيون" في الحالة الأولى للتعبير عن الاستياء من السياسات والحكومات والسياسة الأمريكية والروسية بالترتيب، وليس ضد الشعب نفسه.

أفاد الخبراء أيضًا بتصاعُد عمليات ذكر إسرائيل والإسرائيليين فيما يتعلق بالإبادة الجماعية على منصات Meta منذ بداية العمليات العسكرية لها في غزة، والتي أعقبت هجوم حماس الإرهابي على إسرائيل في أكتوبر 2023. كما تصاعدت نبرة الخطاب الذي يتناول اتهامات بأعمال الإبادة الجماعية، خاصةً بعد الأمر الصادر في 26 يناير 2024 عن محكمة العدل الدولية (ICJ)، والذي أمرت فيه المحكمة باتخاذ تدابير مؤقتة ضد إسرائيل بموجب اتفاقية منع جريمة الإبادة الجماعية والمعاقبة عليها في جنوب أفريقيا ضد قضية إسرائيل. ومنذ التصديق عليه، أصبح هذا الأمر في مرمى النقد وكذلك التأييد. ويرى الخبراء أيضًا أن الاتهامات الموجهة ضد الحكومة الإسرائيلية "غالبًا ما تصبح ركيزة للخطاب الذي يحض على الكراهية والتحريض ضد السامية"؛ وذلك لأن جميع اليهود، بصرف النظر عن جنسياتهم، غالبًا ما يكونون "مقترنين بإسرائيل في الرأي العام."

في النهاية، أوضح الخبراء أيضًا أن التعميمات حول الهنود بشأن الاغتصاب هي تعميمات نادرة على وسائل التواصل الاجتماعي. وعلى الرغم من ظهور وصف "الهنود كمغتصِبين" من حين لآخر في سياق العنف الجنسي المزعوم على أيدي قوات الأمن الهندية في مناطق الصراع، إلا أن هذا نادرًا ما يشير إلى "جميع الهنود". وتشير معظم الوثائق العلمية والصحفية والوثائق المتعلقة بحقوق الإنسان التي تتناول هذه الحوادث بوضوح إلى الانتهاكات التي يرتكبها الجيش، كما أنها لا تشير إلى مجموعة أكبر من السكان.

2. المعلومات المقدَّمة من المستخدمين

تم إبلاغ كُتَّاب المنشورات بالمراجعة التي أجراها المجلس وإتاحة الفرصة لهم لإرسال بيان. ولم يرسِل أي من المستخدمين أي بيان.

3. سياسات المحتوى والمعلومات المقدمة من Meta

1. سياسات المحتوى لدى شركة Meta

تُعرِّف مبادئ سياسة الخطاب الذي يحض على الكراهية هذا النوع من الخطاب على أنه هجوم مباشر ضد الأشخاص، وليس الأفكار أو المؤسسات، على أساس سمات تتمتع بحقوق حماية، بما في ذلك العرق أو الأصل أو السلالة الأصلية. ولا تسمح Meta باستخدام خطاب يحض على الكراهية على منصتها لأنه "يخلق بيئة من التخويف والتهديد والإقصاء وقد يشجّع على العنف على أرض الواقع في بعض الحالات".

يحظر المستوى الأول من سياسة الخطاب الذي يحض على الكراهية "الخطاب الازدرائي أو الصور الازدرائية في شكل مقارنات أو تعميمات أو عبارات سلوكية غير متحفظة (في شكل مكتوب أو مرئي)" بشأن "المجرمين".

تحدد إرشادات Meta الداخلية لمراجعي المحتوى حول كيفية تطبيق السياسة التعميمات على أنها "تأكيدات حول الصفات المتأصلة لدى الأشخاص". وبالإضافة إلى ذلك، تُعرّف الإرشادات الداخلية لدى Meta العبارات السلوكية "المتحفظة" و"غير المتحفظة" وتوفر أمثلة لها. وبموجب هذه الإرشادات، لا تشكل "العبارات المتحفظة" انتهاكًا للسياسة، على العكس من العبارات "غير المتحفظة" التي تشكّل انتهاكًا يدفع الشركة إلى إزالتها. وتسمح الشركة للأشخاص بنشر محتوى يشتمل على عبارات سلوكية متحفظة يمكن أن تتضمن أحداثًا معينة تاريخية أو جنائية أو مرتبطة بالنزاعات. ووفقًا لشركة Meta، فإن العبارات غير المتحفظة "تنسب صراحةً سلوكًا ما لكل أو معظم الأشخاص الذين يتسمون بإحدى السمات التي تتمتع بحقوق حماية".

2. المعلومات المقدَّمة من Meta

أزالت Meta المنشورات الثلاث جميعها بسبب "استهداف الأشخاص بمزاعم جنائية استنادًا إلى الجنسية"، لأنها احتوت على تعميمات حول الصفات المتأصلة في المجموعة، بدلاً من أفعالهم. وأشارت Meta إلى أن العبارات لا تقتصر بشكل صريح على المتورطين في النشاط الإجرامي المزعوم، ولا تحتوي على سياق إضافي للإشارة إلى أن العبارات مرتبطة بنزاع أو حدث إجرامي معين.

عندما أحالت شركة Meta هذه الحالات إلى المجلس، ذكرَت أنها تمثل تحديًا بشأن كيفية التعامل مع الادعاءات الجنائية الموجهة إلى الأشخاص استنادًا إلى جنسياتهم بموجب سياسة الخطاب الذي يحض على الكراهية. وأبلغت Meta المجلس بأنه على الرغم من أن الشركة تعتقد أن السياسة "تحقق التوازن السليم بين حرية التعبير والسلامة في معظم الظروف"، إلا أن هناك مواقف، لا سيما في أوقات الأزمات والصراعات، "يتم فيها تفسير الادعاءات الجنائية الموجهة ضد أشخاص من جنسية معينة على أنها مهاجمة لسياسات الدولة أو حكومتها أو جيشها وليس شعبها".

في حين أن هذه الحالات لا تشكل طلبًا يلزم الحصول على رأي استشاري بشأن السياسة، عرضت Meta على المجلس مناهج سياسية بديلة لتقييم ما إذا كان ينبغي للشركة تعديل نهجها الحالي المتمثل في إزالة الادعاءات الجنائية ضد الأشخاص استنادًا إلى الجنسية وكيفية فعل ذلك، وفي نفس الوقت السماح بانتقاد الدول فيما يتعلق بأنشطة إجرامية مزعومة. وردًا على أسئلة المجلس، ذكرت Meta أن الشركة لم تقم بإجراء اتصالات جديدة مع أصحاب المصلحة لوضع بدائل السياسة لهذه الحالات، ولكنها بدلاً من ذلك نظرت في المدخلات واسعة النطاق لأصحاب المصلحة، والتي تم تلقيها كجزء من عمليات تطوير السياسات الأخرى. واتضح لشركة Meta أن الهجمات التي تصف أعضاء الدول القومية بأنهم "مجرمو حرب" يمكن أن تؤدي إلى الإفراط في إنفاذ القانون وتقييد الخطاب السياسي المشروع، فهناك ميول إلى وجود صلة بين هذا النوع من الهجمات والإجراءات التي تتخذها الدول.

في إطار البديل الأول، تتوقع Meta تقديم إطار عمل للتصعيد فقط بهدف التمييز بين الهجمات على أساس الأصل القومي مقابل الهجمات التي تستهدف مفهومًا معينًا. ويتطلب ذلك تحديد عوامل للمساعدة في هذا القرار، مثل ما إذا كانت دولة معينة منخرطة في حرب أو أزمة، أو ما إذا كان المحتوى يشير إلى الدولة أو جيشها، وكذلك شعبها. بمعنى آخر، إذا قرَّرت الأنظمة التلقائية أن المنشور يمثل انتهاكًا محتملاً، فسيتم إزالته ما لم تتوصل الأنظمة إلى خلاف ذلك، وذلك بعد التصعيد إلى الخبراء المتخصصين في Meta. وأضافت Meta أنه إذا تم اعتماد هذا النوع من إطار العمل، فمن المرجح أن تستخدم الشركة هذا الإطار كخلفية للمفاهيم الحالية مقابل سياسة تصعيد الأشخاص فقط بموجب سياسة الخطاب الذي يحض على الكراهية. وهذا يعني أن Meta "لن تسمح بالمحتوى إذا تمت إزالته بطريقة أخرى، حتى إذا قررت أن المحتوى كان في الواقع يستهدف دولة وليس أشخاصًا، وذلك بموجب إطار عمل المفاهيم مقابل الأشخاص". وبموجب سياسة المفاهيم الحالية مقابل سياسة التصعيد فقط للأشخاص، تقوم Meta بإزالة "المحتوى الذي يهاجم المفاهيم أو المؤسسات أو الأفكار أو الممارسات أو المعتقدات المرتبطة بسمات تتمتع بحقوق حماية، والتي من المحتمل أن تسهم في إلحاق ضرر بدني وشيك أو ترهيب أو تمييز".

وأشارت Meta إلى أن إطار العمل الجديد من شأنه تمكين الشركة من النظر في المزيد من الإشارات السياقية، ولكن من المحتمل أن يتم تطبيقه بشكل نادر وعند التصعيد فقط. بالإضافة إلى ذلك، "نظرًا لتطبيق سياسات التصعيد فقط على المحتوى الذي تم تصعيده إلى فِرق Meta المتخصصة فقط، فقد يتم اعتبارها غير منصفة لأولئك الذين لا يمكنهم الوصول إلى هذه الفِرق والذين تتم مراجعة المحتوى الخاص بهم على نطاق واسع".

في إطار البديل الثاني، قدَّمت Meta مجموعة من الخيارات الفرعية لمواجهة خطر الإفراط في الإنفاذ على نطاق واسع. وعلى عكس البديل الأول، لن يتطلب هذا سياقًا إضافيًا للنظر في تقييم المحتوى، وسيتم تطبيقه على نطاق واسع. وتشمل الخيارات الفرعية ما يلي:

(أ) السماح بجميع المقارنات الجنائية على أساس الجنسية. أشارت Meta إلى أن هذا الخيار سيؤدي إلى تقصير في إنفاذ السياسات من خلال الإبقاء على بعض المقارنات الجنائية التي تهاجم الأشخاص على أساس جنسياتهم دون أي صلة واضحة بالخطاب السياسي.

(ب) السماح بإجراء جميع المقارنات الجنائية على مجموعات فرعية محددة من الجنسيات. ذكرت Meta أن يمكن النظر في استثناء محدد لمجموعات فرعية من الجنسيات التي من المرجح أن تمثل الحكومة أو السياسة الوطنية (على سبيل المثال، "الجنود الروسيون" أو "الشرطة الأمريكية" أو "مسؤولو الحكومة البولندية")، على أساس افتراضية أن هذه المجموعات الفرعية هي الأكثر احتمالاً لتكون وكيلاً للحكومة أو السياسة الوطنية.

(ج) التمييز بين الأنواع المختلفة للادعاءات الجنائية. أشارت Meta إلى أن الإشارات إلى بعض أنواع الجرائم قد تكون مرتبطة في كثير من الأحيان بدول أو مؤسسات أو تبدو سياسية أكثر من غيرها.

وجَّه المجلس أسئلة إلى Meta حول الجدوى التشغيلية ونتائج المفاضلات المتعلقة بتدابير السياسة البديلة المقترحة والتفاعل المتبادل بين السياسات الحالية وتدابير السياسة المقترحة. وقدَّمت Meta إجابات على جميع الأسئلة.

4. التعليقات العامة

تلقى مجلس الإشراف 14 تعليقًا عامًا استوفى شروط إرسال التعليقات. ومنها سبعة تعليقات من الولايات المتحدة وكندا وستة تعليقات من أوروبا وتعليق واحد من منطقة آسيا والمحيط الهادئ والأوقيانوس. وللاطلاع على التعليقات العامة المقدمة التي وافق أصحابها على نشرها، انقر هنا.

لقد غطَّت التعليقات المقدمة الموضوعات التالية: الآثار المترتبة على الادعاءات الجنائية ضد دولة بأكملها في أوقات النزاع، ومعيار مجتمع Meta بشأن الخطاب الذي يحض الكراهية، ومسؤوليات Meta تجاه حقوق الإنسان في حالات النزاع.

5. تحليل مجلس الإشراف

وافق المجلس على حالات الإحالة هذه للنظر في كيفية إشراف Meta على الادعاءات الجنائية استنادًا إلى الجنسية، لا سيما كيف يمكن للشركة التمييز بين الهجمات ضد الأشخاص استنادًا إلى الجنسية والإشارات إلى تصرفات الدولة والجهات الفاعلة أثناء النزاعات والأزمات. وتندرج هذه الحالات ضمن الأولويات الإستراتيجية للمجلس والمتمثلة في حالات الأزمات والنزاعات والخطاب الذي يحض على الكراهية ضد الفئات المهمشة.

قام المجلس بفحص قرارات Meta في هذه الحالات من خلال تحليل سياسات المحتوى التي تتبعها الشركة وقيمها ومسؤولياتها تجاه حقوق الإنسان. وقام أيضًا بتقييم الآلية التي تستخدمها Meta في التمييز بين الخطاب الذي ينسِب الإجرام إلى الأفراد باعتبارهم أعضاء في جنسية ما والخطاب الذي ينسِب الإجرام إلى الدول. ويعد هذا التمييز كافيًا من حيث المبدأ، ولكن تنفيذه يمثل تحديا، وخاصة إذا كان على نطاق واسع.

5.1 الامتثال لسياسات المحتوى لدى Meta

1. قواعد المحتوى

تبيَّن للمجلس أن أجزاء المحتوى في الحالتين الثانية والثالثة تنتهك سياسة Meta بشأن الخطاب الذي يحض على الكراهية. ومع ذلك، يرى المجلس أن قرار Meta بإزالة المحتوى في الحالة الأولى كان غير صحيح، وذلك نظرًا لوجود إشارات تشير إلى أن منشور فيسبوك يستهدف الدول وليس مواطنيها.

بعد مراجعة سياسة Meta بشأن الخطاب الذي يحض على الكراهية، يوصي المجلس بأن تخفض الشركة مستوى اعتمادها على القواعد الافتراضية الموسعة، وبدلاً من ذلك وضع فئات فرعية أكثر تحديدًا تستخدم إشارات موضوعية لتقليص الإيجابيات والسلبيات الزائفة على مستوى قابل للتوسع. فعلى سبيل المثال، يجب أن تسمح الشركة بالادعاءات الجنائية ضد مجموعات محددة من المحتمل أن تكون بمثابة وكلاء للدول والحكومات و/أو سياساتها، مثل الشرطة والجيش والجنود والحكومة وغيرهم من مسؤولي الدولة. ويجب أيضًا أن تسمح الشركة بإجراء مقارنات تذكر الجرائم المرتبطة عادةً بالجهات الفاعلة الحكومية والمنظمات الخطرة، على النحو المحدد في سياسة Meta بشأن المنظمات الخطورة والأفراد الخطرون، وخاصة الجرائم الوحشية أو الانتهاكات الخطيرة لحقوق الإنسان، مثل تلك المحددة في نظام روما الأساسي للمحكمة الجنائية الدولية.

الحالات الفردية

تبيَّن للمجلس أن المنشور في الحالة الأولى لم ينتهك الحظر المفروض على "الخطاب الازدرائي في شكل استهداف شخص أو مجموعة من الأشخاص" على أساس الجنسية "مع مقارنات أو تعميمات أو عبارات سلوكية غير متحفظة بشأن ... المجرمين"، بموجب معيار مجتمع Meta للخطاب الذي يحض على الكراهية. وأشار تقرير لأحد الخبراء بتكليف من المجلس إلى أن الإشارات إلى الجرائم التي ارتكبها "الروسيون" و"الأمريكيون" تُقرأ بشكل مقنع على أنها تستهدف الدول المعنيَّة أو سياساتها، وليس الأشخاص من تلك الدول. وعلاوة على ذلك، يقارن المنشور الروسيين بالأمريكيين. ونظرًا للدور الذي تلعبه كل من روسيا والولايات المتحدة في العلاقات الدولية والسياسة، فإن المقارنة تشير إلى أن المستخدم كان يشير إلى الدولتين المعنيتين، وليس إلى الشعبين. ويختم المجلس بأن المنشور في الحالة الأولى يستهدف الدول أو سياساتها، وبالتالي، لا يحتوي على خطاب ازدرائي ضد الأشخاص على أساس الجنسية في شكل تعميم حول المجرمين، ويجب استعادته.

اتفق المجلس مع Meta على أن المحتوى في الحالتين الثانية والثالثة ينتهك معيار Meta بشأن الخطاب الذي يحض على الكراهية، حيث تحتوي هذه المنشورات على تعميمات حول "المجرمين" الذين يستهدفون الأشخاص على أساس الجنسية. وتستهدف الإشارات إلى "جميع الإسرائيليين" و"جميع الهنود" بشكل مقنع الإسرائيليين والهنود، وليس الدول أو الحكومات المعنية. إضافةً إلى ذلك، لا يحتوي أي من المنشورين على سياق كافٍ لاستنتاج أنه يشير إلى فعل معين أو حدث إجرامي.

على الرغم من أن المحتوى في الحالة الثانية تم نشره ردًا على منشور آخر لمستخدم في Threads يحتوي على مقطع فيديو يناقش الصراع بين إسرائيل وغزة، إلا أن كلمة "الجميع" في إشارة إلى الإسرائيليين تعد إشارة قوية إلى أن الشعب ككل مستهدف وليس الحكومة فقط. وعلاوة على ذلك، في حين أن المحتوى يتضمن أيضًا إشارة إلى "الإبادة الجماعية"، لا توجد إشارات سياقية تشير بشكل بوضوح إلى أن المستخدم كان ينوي الإشارة إلى إجراءات أو سياسات الدولة الإسرائيلية، بدلاً من استهداف الإسرائيليين على أساس جنسيتهم. وبالمثل، لا يوجد مثل هذا السياق في الحالة الثالثة: تشير الحقيقة المتمثلة في أن المستخدم يُعلق على مقطع فيديو على Instagram ينظر فيه رجال إلى أنثى إلى أنه من المرجح أن المستخدم يستهدف الأشخاص. ولا توجد صلة واضحة للرجال الموجودين في الفيديو بالحكومة الهندية. وبالإضافة إلى ذلك، لا يوجد ما يشير إلى أن المستخدم كان ينتقد سياسات الحكومة الهندية أو تصرفاتها بشأن الاغتصاب. وفي ظل غياب إشارات واضحة تمثل انتقادات للدول، اختتم المجلس بأن إزالة المحتوى في الحالتين الثانية والثالثة كان لها مُبرر بموجب سياسة Meta بشأن الخطاب الذي يحض على الكراهية.

القضايا الأوسع نطاقًا

بالانتقال إلى القضايا الأوسع نطاقًا التي أثارتها الحالات الثلاث، يُقر المجلس بتحديات في التمييز بين المحتوى الذي ينتقد إجراءات الدولة وسياساتها وبين الهجمات ضد الأشخاص على أساس الجنسية، خاصةً أثناء الأزمات والصراعات. وبالتالي، يرى المجلس أنه يجب على Meta تنفيذ تغييرات دقيقة في السياسة تؤدي إلى حماية الخطاب السياسي ذي الصلة وعدم إزالته من منصات Meta، دون زيادة خطر الضرر ضد المجموعات المستهدفة. ووفقًا لمنظور المجلس، يتطلب ذلك اتباع نهج قابل للتوسع باستخدام حواجز حماية لمنع حدوث عواقب سلبية بعيدة المدى.

يوصي المجلس بأن تبحث Meta عن إشارات محددة يمكن التحقق منها بشكل موضوعي تعمل على تقليل عدد الإيجابيات والسلبيات الزائفة في مجموعات فرعية مهمة من الحالات. فعلى سبيل المثال، وبدون الزعم بتقديم قائمة شاملة لمثل هذه الإشارات، يرى المجلس أنه ينبغي عمومًا السماح للادعاءات الجنائية استنادًا إلى الجنسية عند توجيهها إلى مجموعة محددة من المحتمل أن تكون بمثابة وكلاء للدول، مثل الجنود أو الجيش أو الشرطة أو الحكومة أو غيرهم من مسؤولي الدولة.

هناك إشارة موضوعية أخرى تتعلق بطبيعة الجريمة المزعومة في المنشور الذي تم تقديم طعن بشأنه. وعادةً ما ترتبط بعض الجرائم، وخاصةً الجرائم الوحشية أو الانتهاكات الخطيرة لحقوق الإنسان، مثل تلك المحددة في نظام روما الأساسي للمحكمة الجنائية الدولية، بالجهات الفاعلة الحكومية والمنظمات الخطرة، في حين يقتصر ارتكاب الجرائم الأخرى على أفراد عاديين. ووفقًا لذلك، يجب التعامل مع المنشورات التي تنسِب النوع الأول من الجريمة إلى جنسية ما، وذلك عندما تتبعها إشارات إلى إجراءات الدولة أو سياساتها، على أنها خطاب سياسي ينتقد تلك الإجراءات، وعدم إزالتها من المنصة، في حين يجب إزالة النوع الأخير بشكل عام.

بالإضافة إلى ذلك، قد تؤدي بعض الإشارات اللغوية وظيفة مماثلة تتمثل في التمييز بين البيانات السياسية والخطاب الذي يحض على الكراهية. وفي ظل الإقرار بأن الاستنتاجات من هذه الإشارات قد تختلف من لغة إلى أخرى، إلا أن المجلس يقترح أن وجود أو غياب أداة محددة من المرجح أن يكون مهمًا. إن القول بأن "الأميركيين" يرتكبون جرائم ليس مثل القول بأن "أشخاصًا أميركيين" يرتكبون جرائم، وذلك لأن استخدام أداة التعريف قد يدل على إشارة إلى مجموعة معينة أو موقع معين. وبالمثل، فإن كلمات مثل "الكل" هي إشارات قوية على أن المتحدث يطلق تعميمات حول مجموعة كاملة من الأشخاص بدلاً من دولتهم القومية. وقد تختلف هذه الفروق بين اللغات؛ مما يجعل التفسيرات السياقية أكثر أهمية.

في نفس الوقت، يرى المجلس أن وضع إطار عمل يكون متاحًا فقط لخبراء سياسة Meta (قاعدة "التصعيد فقط")، وليس لمراجعي المحتوى على نطاق واسع، ليس حلاً ملائمًا. وفي حالة فيديو أسير قوات الدعم السريع في السودان، عَلِم المجلس أن المراجعين البشريين التابعين لشركة Meta الذين يقومون بالإشراف على نطاق واسع "لم يتم توجيههم أو تمكينهم لتحديد المحتوى الذي ينتهك قواعد الشركة الخاصة بالتصعيد فقط". وبالمثل، في هذه الحالة، أبلغت Meta المجلس بأنه لا يمكن تطبيق قواعد "التصعيد فقط" إلا إذا تم لفت انتباه فرق التصعيد فقط في Meta إلى المحتوى، على سبيل المثال، من خلال الشركاء الموثوق بهم أو التغطية الصحفية المهمة، أو الاستفسارات من المشرفين على المحتوى بشأن الاتجاهات المثيرة للقلق أو الفرق المتخصصة في المنطقة أو الخبراء الداخليين مثل فريق Meta لحقوق الإنسان أو الفريق القانوني للحقوق المدنية.

بينما يُقر المجلس بأن إطار عمل التصعيد فقط هذا من شأنه السماح بتحليل الخبراء للسياق الشامل لحالة النزاع، والإشارات حول نية المستخدم وأي روابط بمؤسسات الدولة، فإنه يرى أن هذا المنهج لن يؤدي إلى التمييز بين المنشورات المسموح به وغير المسموح بها في معظم الحالات، وذلك نظرًا لأنه لن يتم تطبيقه على نطاق واسع. وبالمثل، تبيَّن للمجلس أن أحد بدائل Meta، وهو السماح بجميع المقارنات الجنائية على أساس الجنسية، ليس منهجًا دقيقًا بما يكفي وقد يؤدي إلى خطر عدم إنفاذ المحتوى الضار، وهو ما قد يتفاقم بشكل خاص في أوقات الأزمات. ويعتبر المجلس هذا الخيار خيارًا شاملاً لأنه قد يحمي المحتوى الذي يستهدف الأشخاص، وليس الدول أو أفعالها أو سياساتها.

2. إجراء الإنفاذ

أبلغت Meta المجلس عن تحديات الإنفاذ المحتملة المقترنة ببعض بدائل السياسة الأكثر دقة التي قدمتها إلى المجلس، بما في ذلك الصعوبات المحتملة في تدريب أداة التصنيف لإنفاذ الاستثناءات المحدودة والتعقيد المتزايد للمراجعين البشريين الذين يقومون بمهمة الإشراف على نطاق واسع. ولاحظت الشركة أنه بموجب السياسة الحالية للخطاب الذي يحض على الكراهية، يتم التعامل مع جميع المجموعات المميزة التي تتمتع بحقوق حماية بشكل متساوٍ؛ وهو ما يُسهل على المراجعين البشريين تطبيق السياسة، وهو ما يسهل أيضًا تدريب أداة التصنيف.

في حالةالعنف ضد النساء، أبلغت Meta المجلس أنه "قد يكون من الصعب على المراجعين الذين يعملون على نطاق واسع التفريق بين العبارات السلوكية المتحفظة وغير المتحفظة دون أخذ القراءة المتأنية للسياق في الحسبان". أما في حالة الدعوة إلى تظاهرة نسائية في كوبا، أبلغت Meta المجلس بأنه نظرًا لصعوبة تحديد النية على نطاق واسع، تنص إرشاداتها الداخلية للمراجعين على إزالة العبارات السلوكية بشكل افتراضي، والموجهة للمجموعات التي لديها سمات تتمتع بحقوق حماية عندما لا يوضح المستخدم ما إذا كانت العبارة متحفظة أو غير متحفظة.

بينما يُقر المجلس بتحديات الإنفاذ الخاصة بالسياسات الدقيقة، تبيَّن له أنه يمكن أن تفكر Meta في إنشاء قوائم بالجهات الفاعلة والجرائم التي من المحتمل للغاية أن تشير إلى سياسات الدولة أو الجهات الفاعلة، وليس الأشخاص. فعلى سبيل المثال، قد تشمل القائمة إشارات إلى الشرطة والجيش والجنود والحكومة والمسؤولين الحكوميين الآخرين. وعندما يتعلق الأمر بمحتوى الصور والفيديو، قد تطلب Meta من المراجعين البشريين مراعاة الإشارات المرئية في المحتوى. فعلى سبيل المثال، قد يشير المحتوى الذي يظهر أشخاصًا يرتدون ملابس عسكرية مع تعميمات حول الإجرام إلى نية المستخدم الإشارة إلى إجراءات الدولة أو الجهات الفاعلة، وليس تعميم الأشخاص أو مقارنتهم بالمجرمين.

يشير المجلس أيضًا إلى أنه قد تُرتكب عادةً بعض الجرائم أو تُنسَب إلى جهات فاعلة حكومية ومنظمات خطرة، وبالتالي يمكن أن تشير إلى أن نية المستخدم هي انتقاد تصرفات أو سياسات الجهات الفاعلة الحكومية أو المنظمات الخطرة. وعند إنفاذ مثل هذا المحتوى على نطاق واسع، قد تفكر Meta في التركيز على الجرائم الوحشية أو الانتهاكات الخطيرة لحقوق الإنسان، مثل تلك المحددة في نظام روما الأساسي للمحكمة الجنائية الدولية.

في إطار تحديات الإنفاذ لتقليل الإيجابيات والسلبيات الزائفة على نطاق واسع، يوصي المجلس بأن تشارك شركة Meta نتائج عمليات التدقيق الداخلي التي تجريها علنًا لتقييم دقة المراجعة البشرية وأداء الأنظمة التلقائية في إنفاذ سياستها بشأن الخطاب الذي يحض على الكراهية. وينبغي على الشركة تقديم النتائج بطريقة تسمح بمقارنة هذه التقييمات عبر اللغات و/أو المناطق. وتتوافق هذه التوصية مع توصية المجلس رقم 5 من قرار أعراض سرطان الثدي والعُري والتوصية رقم 6 من رأي الاستشاري بشأن السياسة الإشارة إلى الأفراد المُصنّفين كأفراد خطرين بكلمة "شهيد".

وبالنظر إلى التعقيدات والفروق الدقيقة في السياسات المقترحة، يؤكد المجلس على أهمية توفير إرشادات كافية ومفصلة للمراجعين البشريين لضمان اتساق الإنفاذ، وذلك بما يتوافق مع التوصية رقم 1 أدناه.

5.2 الامتثال لمسؤوليات شركة Meta تجاه حقوق الإنسان

يرى المجلس أن قرار Meta بإزالة المحتوى في الحالة الأولى كان غير متوافق مع مسؤوليات الشركة تجاه حقوق الإنسان. وترى أغلبية أعضاء المجلس أن إزالة المحتوى في الحالتين الثانية والثالثة كان متوافقًا مع التزامات Meta تجاه حقوق الإنسان، ولكن اعترضت الأقلية في المجلس على ذلك.

حرية التعبير (المادة 19 من العهد الدولي الخاص بالحقوق المدنية والسياسية)

تنص المادة 19 من العهد الدولي الخاص بالحقوق المدنية والسياسية على حماية واسعة لحرية التعبير، بما في ذلك حول السياسة والشؤون العامة وحقوق الإنسان، مع ضرورة توفير حماية مشددة للتعبير عن الاهتمامات الاجتماعية أو السياسية ( التعليق العام 34، الفقرتان 11 و12).

عند فرض الدولة لقيود على حرية التعبير، يجب أن تفي تلك القيود بمتطلبات الشرعية والهدف المشروع والضرورة والتناسب (الفقرة 3، المادة 19، العهد الدولي الخاص بالحقوق المدنية والسياسية). وتتم الإشارة إلى هذه المتطلبات غالبًا باسم "الاختبار الثلاثي". يستخدم المجلس إطار العمل هذا لتفسير مسؤوليات Meta تجاه حقوق الإنسان تماشيًا مع مبادئ الأمم المتحدة التوجيهية بشأن الأعمال التجارية وحقوق الإنسان، والتي التزمت بها شركة Meta نفسها في سياسة حقوق الإنسان الخاصة بالشركة. يقوم المجلس بذلك فيما يتعلق بالقرارات الفردية بشأن المحتوى الخاضع للمراجعة، وما يخبرنا به ذلك عن نهج Meta الأوسع تجاه إدارة المحتوى. وكما ذكر مقرر الأمم المتحدة الخاص المعني بحرية التعبير على الرغم من أن "الشركات لا تتحمل التزامات الحكومات، لكن تأثيرها يتطلب منها تقييم نفس النوع من الأسئلة المتعلقة بحماية حقوق مستخدميها في حرية التعبير،" (A/74/486، الفقرة 41).

1. الشرعية (وضوح القواعد وسهولة الوصول إليها)

يتطلب مبدأ الشرعية أن تكون القواعد التي تقيِّد حرية التعبير واضحة ويسهُل الوصول إليها، وأن تصاغ بدقة كافية لتمكين الأشخاص من ضبط سلوكهم تبعًا لها (التعليق العام رقم 34، الفقرة 25). علاوة على ذلك، فإن هذه القواعد "لا يجوز أن تمنح الأشخاص المسؤولين عن تنفيذها سلطة تقديرية مطلقة في تقييد حرية التعبير" ويجب أن "تنص على توجيهات كافية للمكلفين بتنفيذها لتمكينهم من التحقق على النحو المناسب من أنواع التعبير التي تخضع للتقييد وتلك التي لا تخضع لهذا التقييد،" ( المرجع نفسه ). ذكر مقرر الأمم المتحدة الخاص المعني بحرية التعبير أنه عند تطبيق ذلك على قيام الجهات الفاعلة الخاصة بحوكمة الخطاب على الإنترنت، يجب أن تكون القواعد واضحة ومحددة (A/HRC/38/35، الفقرة 46). إذ ينبغي أن يتمكن الأشخاص الذين يستخدمون منصات Meta من الوصول إلى هذه القواعد وفهمها كما ينبغي أن تتوافر لمراجعي المحتوى توجيهات واضحة فيما يتعلق بإنفاذها.

تبيَّن للمجلس أن سياسة Meta التي تحظر الخطاب الازدرائي ضد الأشخاص على أساس الجنسية في شكل مقارنات أو تعميمات أو عبارات سلوكية غير متحفظة حول "المجرمين" تستوفي اختبار الشرعية، كما هو مطبق على هذه الحالات الثلاث. وفي حين أن جميع المنشورات الثلاثة تحتوي على تعميمات حول الادعاءات الجنائية، يرى المجلس أن الحالة الأولى تحتوي على سياق كافٍ لاستنتاج أن المستخدم كان يشير إلى تعميمات حول إجراءات الدولة أو سياساتها ويجب استعادة هذا المحتوى إلى المنصة. ومع ذلك، فإن المحتوى في الحالتين الثانية والثالثة يستهدف الأشخاص على أساس الجنسية؛ مما يشكل انتهاكًا لسياسة Meta بشأن الخطاب الذي يحض على الكراهية.

علاوة على ذلك، يسلط المجلس الضوء على أنه يجب أن تكون كل القواعد الجديدة واضحة، ويمكن للمستخدمين الوصول إليها ضمن عملية تغيير Meta للسياسة. وبالتالي، يحُث المجلس شركة Meta على تحديث لغة سياسة الخطاب الذي يحض على الكراهية حتى تعكس التغييرات التي ستنتج عن هذا القرار وتوصيات السياسة التي تم اعتمادها.

في قرارات العنف ضد النساء وكارتون كنين والدعوة إلى تظاهرة نسائية في كوبا، تبيَّن للمجلس أنه يجب أن تتاح لمراجعي المحتوى المساحة والموارد الكافية لأخذ الإشارات السياقية في الاعتبار لإنفاذ سياسات Meta بدقة. لذلك، لضمان الإنفاذ بشكل متسق وفعالا، يجب على Meta تقديم إرشادات واضحة حول القواعد الجديدة لمراجعيها البشريين بما يتماشى مع التوصية رقم 1 أدناه.

2. الهدف المشروع

ينبغي أيضًا أن تستند أي قيود مفروضة على حرية التعبير على الأقل إلى أحد الأهداف المشروعة الواردة في العهد الدولي الخاص بالحقوق المدنية والسياسية، والتي من بينها حماية "حقوق الآخرين". "يتضمن مصطلح "الحقوق" حقوق الإنسان المعترف بها في العهد وبشكل أعم في القانون الدولي لحقوق الإنسان،" (التعليق العام رقم 34، الفقرة 28). وتماشيًا مع قراراته السابقة، تبيَّن للمجلس أن سياسة Meta بشأن الخطاب الذي يحض على الكراهية، والتي تهدف إلى حماية حقوق الأشخاص في المساواة وعدم التمييز تسعى إلى تحقيق هدف مشروع تقره معايير القانون الدولي لحقوق الإنسان (راجع، على سبيل المثال، قرار كارتون كنين).

3. الضرورة والتناسب

بموجب المادة 19(3) من العهد الدولي الخاص بالحقوق المدنية والسياسية، فإن الضرورة والتناسب يتطلبان أن تكون القيود المفروضة على حرية التعبير "مناسبة لتحقيق وظيفة الحماية المنوطة بها، ويجب أن تكون أقل الوسائل تدخلاً مقارنة بغيرها من الوسائل التي يمكن أن تحقق النتيجة المنشودة؛ ويجب أن تكون متناسبة مع المصلحة التي ستحميها" (التعليق العام رقم 34، الفقرة 34).

تنص مبادئ الأمم المتحدة التوجيهية بشأن الأعمال التجارية وحقوق الإنسان أن على الأنشطة التجارية ممارسة العناية الواجبة بحقوق الإنسان بشكل مستمر لتقييم آثار أنشطتها (المبدأ رقم 17 من مبادئ الأمم المتحدة التوجيهية بشأن الأعمال التجارية وحقوق الإنسان) والإقرار بأن مخاطر الإضرار بحقوق الإنسان تزداد في السياقات المتأثرة بالنزاعات (المبدأ رقم 7 من مبادئ الأمم المتحدة التوجيهية بشأن الأعمال التجارية وحقوق الإنسان). وأشار فريق الأمم المتحدة العامل المعني بمسألة حقوق الإنسان والشركات عبر الوطنية والأنشطة التجارية الأخرى إلى ضرورة أن تعكس مسؤوليات العناية التي تقع على عاتق الأنشطة التجارية ما تنطوي عليه بعض السيناريوهات من تعقيد واحتمال أكبر لوقوع ضرر (A/75/212، الفقرات 41 إلى 49).

في حالة البرنامج التلقائي ليمانمار، تبيَّن للمجلس أن "مسؤوليات [Meta] المتزايدة لا ينبغي أن تؤدي إلى الإزالة افتراضيًا، حيث تتساوى المخاطر الناجمة عن الإبقاء على المحتوى الضار مع المخاطر الناجمة عن إزالة المحتوى الذي يشكل خطرًا ضئيلاً أو معدومًا". كما أشار المجلس إلى أنه "على الرغم من أن مخاوف فيسبوك بشأن الخطاب الذي يحض على الكراهية في ميانمار كان لها ما يبررها، ينبغي أيضًا أن تولي عناية خاصة حتى لا تزيل محتوى يتعلق بحرية التعبير والنقد السياسي، وأن تدعم الحكم الديمقراطي في تلك الحالة".

في حين أن انتقاد سياسات الدولة وحياتها السياسية وإجراءاتها، وخاصةً في حالات الأزمات والصراع، له أهمية متزايدة، فإن الهجمات على الأشخاص على أساس الجنسية قد تشكل ضررًا بشكل خاص في نفس السياق. وقد تؤدي الادعاءات الجنائية ضد الأشخاص استنادًا إلى الجنسية إلى أعمال عنف على أرض الواقع تستهدف الأشخاص وتساهم في تصعيد التوترات بين الدول محل النزاع. وترى أغلبية أعضاء المجلس أن قرار Meta بإزالة المحتوى في الحالة الأولى لم يتوافق مع مبدأي الضرورة والتناسب، بينما كانت عمليات الإزالة في الحالتين الثانية والثالثة ضرورية ومتناسبة. كما ترى الأغلبية أنه في ظل غياب الإشارات السياقية لاستنتاج أن المستخدمين في الحالتين الثانية والثالثة كانوا ينتقدون الحكومتين الإسرائيلية والهندية بالترتيب، فإن إزالة المحتوى في كلتا الحالتين كانت مبررة. وعلى الرغم من ذلك، تختتم الأغلبية بأن هذا السياق موجود في الحالة الأولى؛ وهو ما يجعل الإزالة في هذه الحالة غير ضرورية ولا متناسبة، ويجب استعادة المنشور.

يُكرر المجلس أن السياق هو مفتاح تقييم الضرورة والتناسب (راجع قرارنا بشأن المظاهرات المؤيدة لنافالني في روسيا). ويُقر المجلس بأهمية تحديد الإشارات السياقية وتحدياتها داخل المحتوى نفسه ومراعاة السياق الخارجي و"بيئة حرية التعبير" المحيطة بالمحتوى المنشور، (راجع أيضًا قرارنا بشأن الدعوة إلى تظاهرة نسائية في كوبا).

فيما يتعلق بمحتوى الحالة الثانية، تشير أغلبية أعضاء المجلس إلى التقارير التي تفيد بأنه منذ 7 أكتوبر، حذرت الأمم المتحدةوالوكالات الحكومية ومجموعات التأييد من تصاعد وتيرة معاداة السامية والإسلاموفوبيا. أفادت رابطة مكافحة التشهير، على سبيل المثال، أن الحوادث المعادية للسامية في الولايات المتحدة زادت بنسبة 361% في أعقاب هجمات 7 أكتوبر. حذرت دول في مختلف أنحاء أوروبا من ارتفاع معدل جرائم الكراهية والخطاب الذي يحض على الكراهية والتهديدات للحريات المدنية التي تستهدف المجتمعات اليهودية والمسلمة. وعند تحليل تحديات إنفاذ سياسات Meta على نطاق واسع، أكد المجلس سابقًا أن الخطاب الازدرائي الذي يتألف من خطاب تمييزي ضمني أو صريح قد يساهم في ارتكاب الفظائع (راجع قرار كارتون كنين). وفي إطار تفسير معيار المجتمع بشأن الخطاب الذي يحض على الكراهية، أشار المجلس أيضًا أنه حتى عندما يبدو أن أجزاء معينة من المحتوى، تُعرَض بشكل منفصل، لا تحرض بشكل مباشر على العنف أو التمييز، من المرجح أن يكون يؤدي حجم هذا المحتوى خلال أوقات تصاعد التوتر العرقي والعنف إلى تفاقم الوضع. وفي هذه الظروف على الأقل، يحق لشركة متخصصة في التواصل الاجتماعي مثل Meta اتخاذ خطوات تتجاوز تلك المتاحة للحكومات بهدف التأكد من عدم استخدام منصتها لتعزيز وتشجيع الكراهية التي تؤدي إلى العنف. وفي غياب إشارات واضحة تشير إلى انتقاد الدولة أو إحدى مؤسساتها أو سياساتها، اختتمت أغلبية أعضاء المجلس بأن المحتوى في الحالة الثانية يشكل خطابًا ازدرائيًا ضد جميع الإسرائيليين على أساس الجنسية. وفي سياق التقارير التي تشير إلى تزايد أعداد الحوادث المعادية للسامية، بما في ذلك الهجمات على الشعب اليهودي والإسرائيليين على أساس هويتهم، من المرجح أن يساهم مثل هذا المحتوى في إحداث ضرر وشيك على أرض الواقع.

وبالمثل، فإن أغلبية أعضاء المجلس تولي اهتمامًا بالتوترات المستمرة بين الهند وباكستان والتقارير المتعلقة بحالات العنف الطائفي بين الهندوس والمسلمين في الهند (راجع قرار العنف الطائفي في ولاية أوديشا الهندية). لذلك، ترى الأغلبية أن إزالة المحتوى في الحالة الثالثة كان ضروريًا ومتناسبًا لأنه استهدف الهنود، وليس انتقادًا الحكومة الهندية؛ مما ساهم في خلق بيئة من العداء والعنف.

هناك أقلية من أعضاء المجلس لا توافق على إزالة المنشورين الثاني والثالث. وتتطلب مبادئ حرية التعبير العالمية (على النحو المنصوص عليه في المادة 19 من العهد الدولي الخاص بالحقوق المدنية والسياسية) أن تلبي القيود المفروضة على التعبير، بما في ذلك حظر الخطاب الذي يحض على الكراهية، مبادئ الضرورة والتناسب، الأمر الذي يستلزم تقييم ما إذا كان الضرر على المدى القريب محتملاً ووشيكًا من المنشورات. إن هذه الأقلية غير مقتنعة بأن إزالة المحتوى هي الوسيلة الأقل تدخلاً لدى Meta لمعالجة الأضرار المحتملة في هذه الحالات حيث تتوفر مجموعة كبيرة من الأدوات الرقمية للنظر فيها (على سبيل المثال، منع مشاركة المنشورات، وتخفيض المرتبة، والتصنيفات، والحظر محدود المدة، وغيرها). إن فشل Meta في إثبات خلاف ذلك لا يفي بمبدأ الضرورة والتناسب. ذكر المقرر الخاص أنه "مثلما ينبغي للدول تقييم ما إذا كان فرض قيود على الخطاب هو النهج الأقل تقييدًا، ينبغي للشركات كذلك إجراء هذا النوع من التقييم. وعند إجراء التقييم، ينبغي على الشركات أن تتحمل عبء توضيح الضرورة والتناسب علنًا" (A/74/486، الفقرة 51) [التشديد مضاف]. ومن منظور الأقلية، فشلت Meta في توضيح سبب كون عمليات الإزالة هي الوسيلة الأقل تدخلاً، ولم تقدم الأغلبية حجة مقنعة لاستيفاء مبدأ الضرورة والتناسب في الحالتين الثانية والثالثة.

بينما تؤيد أغلبية أعضاء المجلس إزالة المنشورين المخالفين في الحالتين الثانية والثالثة، فإنها تؤكد على أهمية السعي إلى إرشاد المستخدمين وتمكينهم من التدابير عند تقييد حرية التعبير. ويولي المجلس اهتمامًا بالتوصية رقم 6 في قرار المظاهرات المؤيدة لنافالني في روسيا، وكرد على ذلك، استكشفت Meta طرقًا لإبلاغ المستخدمين بالانتهاكات المحتملة لمعيار المجتمع قبل أن تتخذ الشركة إجراءً للإنفاذ. أبلغت الشركة المجلس أنه عندما تكتشف الأنظمة التلقائية للشركة بثقة عالية انتهاكًا محتملاً في المحتوى الذي يوشك المستخدم على نشره، تبلغ Meta المستخدم أن منشوره قد ينتهك السياسة؛ وهو ما يسمح للمستخدم بفهم سياسات Meta بشكل أفضل، ومن ثمّ اتخاذ قرار بحذف محتواه ونشره مرة أخرى بدون اللغة المخالفة. وأضافت Meta أنه على مدار 12 أسبوعًا بدايةً من 10 يوليو 2023 إلى 1 أكتوبر 2023 على مستوى جميع أنواع الإشعارات، أبلغت الشركة المستخدمين من خلال أكثر من 100 مليون جزء من المحتوى، مع أكثر من 17 مليون إشعار يتعلق بإنفاذ معيار المجتمع بشأن المضايقة والإساءة. واختار المستخدمون حذف منشوراتهم في أكثر من 20% من الوقت على مستوى جميع الإشعارات. ويشير المجلس إلى أنه يتم تجميع جميع المعلومات وإلغاء تحديدها لحماية خصوصية المستخدم، وأن جميع أدوات القياس عبارة عن تقديرات بناءً على أفضل المعلومات المتاحة حاليًا لنقطة زمنية محددة. ويعتبر المجلس أن تنفيذ مثل هذه التدابير خطوة مهمة نحو إرشاد المستخدمين وتمكينهم، وسيطرة إضافية للمستخدمين على تجاربهم الخاصة على منصات Meta.

6. قرار مجلس الإشراف

يلغي مجلس الإشراف قرار Meta بإزالة المحتوى في الحالة الأولى، مما يتطلب استعادة المنشور، ويؤيد قرارات Meta بإزالة المحتوى في الحالتين الثانية والثالثة.

7. التوصيات

سياسة المحتوى

1. يجب على Meta تعديل معيار المجتمع لديها بشأن الخطاب الذي يحض على الكراهية، وإضافة القسم الذي يحمل علامة "جديد" أدناه. ومن ثمّ، سيحتوي معيار المجتمع بشأن الخطاب الذي يحض على الكراهية الذي تم تعديله على اللغة التالية أو لغة أخرى مشابهة إلى حد كبير لهذا التأثير:

"يجب عدم النشر

المستوى الأول

المحتوى الذي يستهدف شخصًا أو مجموعة أشخاص (بما في ذلك كل المجموعات باستثناء تلك التي تعتبر غير محمية وارتكبت جرائم عنف أو اعتداءات جنسية أو تمثل أقل من نصف مجموعة) على أساس سمتها (سماتها) التي تتمتع بحقوق حماية سالفة الذكر أو على أساس حالة الهجرة بشكل مكتوب أو مرئي من خلال الخطاب الازدرائي في شكل مقارنات أو تعميمات حول المجرمين:

  • مرتكبو اعتداءات جنسية
  • مجرمون يستخدمون العنف
  • مجرمون آخرون

[جديد] باستثناء عندما تشير الجهات الفاعلة (مثل الشرطة والجيش والجنود والحكومة ومسؤولو الدولة) و/أو الجرائم (مثل الجرائم الوحشية أو الانتهاكات الخطيرة لحقوق الإنسان، مثل تلك المحددة في نظام روما الأساسي للمحكمة الجنائية الدولية) ضمنًا إلى إشارة إلى الدولة بدلاً من استهداف الأشخاص على أساس الجنسية".

سينظر المجلس في تنفيذ هذه التوصية عندما تقوم Meta بتحديث معيار المجتمع العام بشأن الخطاب الذي يحض على الكراهية، وتشارك الإرشادات المحددة المحدثة مع مراجعيها.

الإنفاذ

2. لتحسين مستوى الشفافية حول إنفاذ Meta، يجب على Meta مشاركة نتائج عمليات التدقيق الداخلي التي تجريها لتقييم دقة المراجعة البشرية وأداء الأنظمة التلقائية في إنفاذ سياستها بشأن الخطاب الذي يحض على الكراهية مع العامة. وينبغي عليها تقديم النتائج بطريقة تسمح بمقارنة هذه التقييمات عبر اللغات و/أو المناطق.

سيعتبر المجلس أن هذه التوصية قد دخلت حيز التنفيذ عندما تقوم Meta بتضمين نتائج تقييم الدقة كما هو موضح في التوصية في مركز الشفافية الخاص بها وفي تقارير إنفاذ معايير المجتمع.

*ملاحظة إجرائية:

  • يتم اتخاذ قرارات مجلس الإشراف من قبل لجان مكونة من خمسة أعضاء ويتم الموافقة عليها بأغلبية أصوات المجلس بالكامل. ولا يلزم بالضرورة أن تُعبّر قرارات المجلس عن وجهات النظر لجميع الأعضاء.
  • بموجب اتفاقية المجلس، يجوز لمجلس الإشراف مراجعة الطعون المقدمة من المستخدمين الذين قامت Meta بإزالة محتواهم، والطعون المقدمة من المستخدمين الذين أبلغوا عن محتوى قامت Meta بتركه، والقرارات التي أحالتها Meta إليه (المادة 2، القسم 1 من اتفاقية المجلس). وللمجلس سلطة مُلزمة تخوله من تأييد أو إلغاء القرارات التي تتخذها Meta بشأن المحتوى (المادة 3، القسم 5؛ المادة 4 من اتفاقية المجلس). ويجوز للمجلس إصدار توصيات غير ملزمة يجب على شركة Meta الرد عليها (المادة 3، القسم 4، المادة 4). وعندما تلتزم Meta بتنفيذ التوصيات، يراقب المجلس هذا التنفيذ.
  • بالنسبة إلى القرار المتخذ بشأن هذه الحالة، تم إجراء بحث مستقل نيابةً عن المجلس. وقد تلقى المجلس مساعدة من شركة Duco Advisors، وهي شركة تركز على نقطة التقاء الجغرافيا السياسية والثقة والأمان والتكنولوجيا. وقد تم تقديم أبحاث أيضًا بواسطة مجموعة Memetica، وهي مجموعة متخصصة في التحقيقات الرقمية تقدم خدمات استشارية بشأن المخاطر وخدمات استخباراتية بشأن التهديدات للتخفيف من حدة الأضرار على الإنترنت. وتم توفير الخبرة اللغوية بواسطة شركة Lionbridge Technologies LLC، التي يتقن المتخصصون بها أكثر من 50 لغة ويعملون من 5000 مدينة في جميع أنحاء العالم.

العودة إلى قرارات الحالة والآراء الاستشارية المتعلقة بالسياسة