قرار قضية متعددة

منشوران يُظهران عَلَم حقبة الفصل العنصري في جنوب أفريقيا

بعد مراجعة لمنشورين على فيسبوك تضمنا صورًا لعَلَم جنوب أفريقيا للفترة من 1928 إلى 1994، أيَّدت أغلبية أعضاء المجلس قرارات Meta بالإبقاء على المنشورين. وعلى الرغم من ذلك، فإن المنشورين لا يدعوان بوضوح إلى الإقصاء أو العزل، كما أنه لا يفهم منهما على أنهما دعوة للأشخاص للمشاركة في العنف أو التمييز.

2 تم تضمين من الحالات في هذه الحزمة

أيد

FB-Y6N3YJK9

حالة بشأن ‏‏ على فيسبوك

منصة
Facebook
عنوان
تمييز,انتخابات
موقع
جنوب أفريقيا
Date
تم النشر بتاريخ تم النشر بتاريخ 23 نَيْسان 2025
أيد

FB-VFL889X3

حالة بشأن ‏‏ على فيسبوك

منصة
Facebook
عنوان
تمييز,انتخابات
موقع
جنوب أفريقيا
Date
تم النشر بتاريخ تم النشر بتاريخ 23 نَيْسان 2025

الملخص

بعد مراجعة لمنشورين على فيسبوك تضمنا صورًا لعَلَم جنوب أفريقيا للفترة من 1928 إلى 1994، أيَّدت أغلبية أعضاء المجلس قرارات Meta بالإبقاء على المنشورين. يأتي ذلك من منطلق إدراك أعضاء المجلس للعواقب بعيدة الأمد وإرث الفصل العنصري في جنوب أفريقيا. وعلى الرغم من ذلك، فإن المنشورين لا يدعوان بوضوح إلى الإقصاء أو العزل، كما أنه لا يُفهم منهما أنهما دعوة للأشخاص إلى المشاركة في أعمال العنف أو التمييز. إضافةً إلى ذلك، فقد نتج عن مداولة المنشورين توصيات للمجلس تستهدف تحسين الصيغة المتضاربة الواردة في سياسة Meta بشأن المنظمات الخطرة والأفراد الخطرين.

ملاحظة إضافية: المراجعات التي أجرتها Meta بتاريخ 7 يناير 2025 لم تغيِّر النتيجة في هاتين الحالتين، رغم أن المجلس قد أخذ القواعد بعين الاعتبار وقت النشر وكذلك التحديثات في أثناء المداولات. وإزاء التغييرات الواسعة في السياسة والإنفاذ التي أعلنتها Meta على عَجَل في يناير، أبدى المجلس قلقه من عدم مشاركة Meta مع عامة الجمهور التدابير المسبقة للعناية الواجبة بحقوق الإنسان التي اتخذتها تماشيًا مع التزاماتها بمقتضى مبادئ الأمم المتحدة التوجيهية بشأن الأعمال التجارية وحقوق الإنسان. إذ إنه من الضروري أن تضمن Meta تحديد الآثار السلبية على حقوق الإنسان عالميًا والحيلولة دون وقوعها.

حول الحالتين

بعد مشاركته قبل إجراء الانتخابات العامة لجنوب أفريقيا في مايو 2024، يُظهر المنشور صورة لجندي ذَكَر أبيض البشرة يحمل العَلَم القديم للبلد الذي كان مستخدمًا خلال حقبة الفصل العنصري. كما يشتمل المنشور على شرح توضيحي يحث الآخرين على مشاركة المنشور في حال كانوا قد "خدموا في الجيش تحت هذا العَلَم". شوهد هذا المنشور أكثر من 500 ألف مرة. وبعد إبلاغ ثلاثة مستخدمين عن المنشور، قررت Meta أن المحتوى لم يخالف قواعدها.

أما المنشور الثاني، فقد كان على فيسبوك، ويتضمن صورًا جاهزة من حقبة الفصل العنصري، من بينها صور للعَلَم السابق وأطفال من أصحاب البشرة البيضاء يقفون إلى جوار رجل من أصحاب البشرة السمراء على دراجة لبيع المثلجات، وشاطئ عام مخصص لأصحاب البشرة البيضاء فقط، ومسدس لعبة. يذكر الشرح التوضيحي أن تلك كانت الأيام الخوالي الجميلة ويطلب من الآخرين "قراءة ما بين السطور"، كما يشتمل على رمزين تعبيريين أحدهما وجه غامز والآخر "OK". شوهد المحتوى أكثر من مليوني مرة، وأبلغ عنه 184 مستخدمًا أغلبهم بسبب الخطاب الذي يحض على الكراهية. قرر المراجعون البشريون في Meta أن المنشور لم يخالف معايير المجتمع.

لوحظ في الحالتين أن المستخدمين الذين قدموا بلاغات عن المحتوى إلى Meta قدموا بعدها طعنًا إلى المجلس.

النتائج الرئيسية

خلُصت أغلبية أعضاء المجلس إلى أن المنشورين لم يخالفا سياسة السلوك الذي يحض على الكراهية، في حين ترى أقلية من أعضاء المجلس أن المنشورين مخالفان.

بحسب السياسة، فإن "الهجوم المباشر" غير مسموح به في شكل "الدعوات التي تنادي بالإقصاء أو العزل أو تدعمهما" على أساس سمة تتمتع بحقوق حماية. كما لا يدعو أيٌ من المنشورين إلى إعادة العمل بنظام الفصل العنصري أو أيٍ من أشكال الإقصاء العنصري، بحسب ما رأته أغلبية أعضاء المجلس. ورغم أن منشور الجندي يستخدم العَلَم في سياق إيجابي، فإنه لا يدعو إلى الإقصاء أو العزل العنصري. وبالنسبة إلى منشور شبكة الصور، فإن الصور مجتمعةً مع الرمزين التعبيريين ورسالة "قراءة ما بين السطور" توحي برسالة عنصرية، إلا أنها لا ترقى إلى المستوى المطلوب بحيث تخالف هذه السياسة.

تختلف أقلية من أعضاء المجلس في الرأي، وتوضح أن العَلَم هو رمز مباشر وغير غامض للفصل العنصري، والذي عند مشاركته مع إشارات إيجابية أو محايدة، يمكن أن يُفهم منه أنه يدعم العزل العنصري. فعلى سبيل المثال، لا شك أن منشور شبكة الصور المشتمل على صور للحياة حيث العزل العنصري والرسائل والرمز التعبيري "OK" – الذي يفهمه مؤيدو سيادة العرق الأبيض عالميًا على أنه خطاب مقنَّع يحض على الكراهية – يدعم الإقصاء العنصري.

كان المجلس قد خلُص بالإجماع إلى أن المنشورين كليهما يخالفان سياسة المنظمات الخطرة والأفراد الخطرين، على الرغم من أن الأغلبية والأقلية في أعضاء المجلس يختلفون على سبب ذلك. يُذَكر أن الشركة تُزيل المحتوى الذي يمجد أو يدعم أو يمثل أيديولوجيات الكراهية، بما يشمل سيادة العرق الأبيض وانفصالية العرق الأبيض فضلاً عن "الإشارات غير الواضحة" إلى هذه الأيديولوجيات. ويوافق المجلس على أن عَلَم جنوب أفريقيا للفترة من 1928 إلى 1994 لا يمكن فصله عن نظام الفصل العنصري، كونه يمثل أحد أشكال الأيديولوجية التي تروج لانفصالية العرق الأبيض. وبالنسبة إلى أغلبية أعضاء المجلس، يمثل المنشوران إشارات غير واضحة إلى انفصالية العرق الأبيض، في حين ترى أقلية من أعضاء المجلس أن المنشورين يمجدان بشكل صريح هذه الأيديولوجية.

وبحسب أغلبية أعضاء المجلس، فمن غير الضروري والمتناسب إزالة المحتوى، وذلك لضعف احتمالية وقوع أعمال التمييز أو العنف الوشيك من جرَّاء هذين المنشورين. فحظر مثل هذا الخطاب لا يترتب عليه تلاشي الأفكار المتعصبة، كما أنه كان بالإمكان تطبيق أدوات أخرى للإشراف على المحتوى أقل تدخلاً من الإزالة. تختلف أقلية من أعضاء المجلس في الرأي، وتوضح أن الإزالة ضرورية لضمان احترام قيم المساواة وعدم التمييز ضد مواطني جنوب أفريقيا من غير أصحاب البشرة البيضاء. كما يوضح هؤلاء الأعضاء التأثيرات المثبطة لتراكم مشاعر الكراهية تلك على منصات Meta على حرية تعبير المستهدَفين.

يدرك كل أعضاء المجلس اللغة المتضاربة بشأن "الإشارات" إلى أيديولوجيات الكراهية في معيار المجتمع بشأن المنظمات الخطرة والأفراد الخطرين. وخلال المداولات، أثيرت أسئلة بشأن عدم إدراج Meta للفصل العنصري كتصنيف مستقل. وقد طرح بعض أعضاء المجلس أسئلة حول تركيز قائمة Meta على تلك الأيديولوجيات التي قد تشكل مخاطر في مناطق الأقلية العالمية في حين أنها تلتزم الصمت تجاه أيديولوجيات الكراهية المماثلة في مناطق الأغلبية العالمية.

قرار مجلس الإشراف

أيَّد مجلس الإشراف القرارات التي اتخذتها Meta بالإبقاء على المنشورين.

ويوصى المجلس Meta بما يلي:

  • فيما يتعلق بتحديثات 7 يناير 2025 على معيار المجتمع بشأن السلوك الذي يحض على الكراهية، ينبغي لشركة Meta أن تحدد كيف قد تؤثر تحديثات السياسة والإنفاذ سلبًا في الفئات السكانية في مناطق الأغلبية العالمية. ينبغي لها أن تتبنى تدابير لمنع هذه المخاطر و/أو التخفيف من حدتها ومراقبة مدى فعّاليتها. وأخيرًا، ينبغي لشركة Meta أن تقدم إلى المجلس تحديثًا كل ستة أشهر عما تحرزه من تقدُّم مع الإعلان عن ذلك علنًا في أقرب فرصة.
  • تبني شرح واحد وواضح وشامل يوضح كيف تنطبق محظوراتها واستثناءاتها بموجب معيار المجتمع بشأن المنظمات الخطرة والأفراد الخطرين على أيديولوجيات الكراهية المصنَّفة.
  • إدراج الفصل العنصري كأيديولوجية كراهية مستقلة مصنَّفة في قواعد معيار المجتمع بشأن المنظمات الخطرة والأفراد الخطرين.
  • إتاحة المزيد من الأمثلة العامة إلى مراجعيها عن التمجيد والدعم والتمثيل المحظور لأيديولوجيات الكراهية، بما فيها أمثلة لا تذكر بصورة مباشرة اسم الأيديولوجية المدرجة.

* توفر ملخصات الحالة نظرة عامة على الحالتين ولا تُشكّل سابقة قانونية.

القرار الكامل للمجلس بشأن الحالة

1. وصف الحالة ومعلومات أساسية عنها

تتعلق هاتان الحالتان بمنشورين على فيسبوك تمت مشاركتهما في مرحلة ما قبل الانتخابات العامة التي شهدتها جنوب أفريقيا في مايو 2024.

ويتضمن المنشور الأول صورة لجندي أبيض البشرة يحمل عَلَم جنوب أفريقيا للفترة السابقة لعام 1994، وذلك كان عَلَم البلد في حقبة الفصل العنصري. كما يوجد شرح توضيحي يحث المستخدمين على مشاركة المحتوى في حال كانوا قد "خدموا في الجيش تحت هذا العَلَم". وقد تمت مشاهدة المنشور نحو 600 ألف مرة وتمت مشاركته حوالي 5,000 مرة. قدَّم ثلاثة مستخدمون بلاغات عن المحتوى إلى Meta بسبب العنف والخطاب الذي يحض على الكراهية. ونظرًا لأن المراجعين البشريين في Meta لم يجدوا المحتوى مخالفًا، فقد تم الإبقاء عليه. وبعدها، تقدَّم أحد المستخدمين الذين أبلغوا عن المحتوى بطعن إلى المجلس.

المنشور الثاني عبارة عن شبكة صور تشتمل على صور جاهزة تم التقاطها خلال حقبة الفصل العنصري، ومن بينها صورة للعَلَم السابق للبلد، ورجل بالغ من ذوي البشرة السمراء على دراجة بيع مثلجات مع ثلاثة أطفال من ذوي البشرة البيضاء يقفون إلى جواره في حي يبدو أنه مخصص لذوي البشرة البيضاء، وشاطئ يشتمل على ملاهٍ لذوي البشرة البيضاء فقط، وإحدى الألعاب اللوحية في جنوب أفريقيا، وعلبة سجائر باللون الأبيض الكريمي، ومسدس لعبة فضي اللون. يذكر الشرح التوضيحي أن تلك كانت "الأيام الخوالي الجميلة" ويطلب من الجمهور "قراءة ما بين السطور"، ويتبع ذلك رمزان تعبيريان أحدهما الوجه الغامز والآخر "OK". وقد تمت مشاهدة المنشور نحو مليوني مرة وتمت مشاركته حوالي ألف مرة. وفي أسبوع النشر، قدَّم 184 مستخدمًا ببلاغات عن المحتوى، أغلبها بسبب الخطاب الذي يحض على الكراهية. وقد خضعت بعض البلاغات لتقييم المراجعين البشريين الذين قرروا أن المحتوى لم يخالف معايير المجتمع. أما البلاغات الأخرى، فقد خضعت للمعالجة من خلال الجمع بين الأنظمة التلقائية وقرارات المراجعة البشرية. وكما هو الحال بالنسبة إلى منشور الجندي، فقد رأت Meta أن هذا المنشور غير مخالف وأبقت عليه على منصتها. وبعدها، تقدَّم أحد المستخدمين الذين أبلغوا عن المحتوى بطعن إلى المجلس.

في 7 يناير 2025، أعلنت Meta عن مراجعات لسياستها بشأن الخطاب الذي يحض على الكراهية وأعادت تسميتها إلى سياسة السلوك الذي يحض على الكراهية. وسيتم توضيح هذه التغييرات، بحسب ما يتصل بهاتين الحالتين، في القسم 3، كما سيتم تحليلها في القسم 5. ويذكر المجلس أن المحتوى يمكن للوصول إليه على منصات Meta بشكل مستمر، كما أن السياسات المحدثة تطبق على كل المحتوى الموجود على المنصة بغض النظر عن تاريخ نشره. لذا، يقيِّم المجلس تطبيق السياسات بحسب حالتها وقت النشر، وحسبما ينطبق، منذ مراجعتها (راجع أيضًا النهج المتبع في إنكار محرقة اليهود (الهولوكوست)).

أخذ المجلس في حسبانه السياق التالي في أثناء التوصل إلى قراره:

خلال الفترة من 1948 إلى 1994، كانت جنوب أفريقيا تخضع لنظام فصل عنصري معترف به من الدولة يتضمن العزل العنصري بين مواطني جنوب أفريقيا من أصحاب البشرة البيضاء والسمراء، وذلك على الرغم من أن القوانين التمييزية وُجِدت في البلد قبل الإقرار الرسمي لنظام الفصل العنصري. وخلال تلك الفترة، كان يمثل جنوب أفريقيا عَلَم يجمع بين الألوان البرتقالي والأبيض والأزرق. وفي عام 1994، وبعد نهاية حقبة الفصل العنصري، أقرت جنوب أفريقيا العَلَم سداسي الألوان الذي تستخدمه في الوقت الحاضر. وعلى الرغم من انتهاء حقبة الفصل العنصري، لا تزال جوانب عدم المساواة على المستوى الاجتماعي والاقتصادي تؤثر على السكان من غير أصحاب البشرة البيضاء في البلد، على وجه الخصوص، وهذا بدوره قد يساهم في إحداث توترات عِرقية في الخطاب السياسي والعام.

في عام 2018، باشرت مؤسسة نيلسون مانديلا دعوى قضائية في جنوب أفريقيا بهدف حظر "العرض غير المبرر" لعَلَم حقبة الفصل العنصري بعد استخدامه في احتجاجات في العام السابق. وبحسب الدعوى، يرقى ذلك العرض إلى "الخطاب الذي يحض على الكراهية والإساءة والتمييز غير العادل"، وترى أنه احتفى بفظائع النظام. وفي عام 2019، قضت محكمة المساواة في جنوب أفريقيا بأن العرض غير المبرر للعَلَم يرقى إلى الخطاب الذي يحض على الكراهية والتمييز العنصري، وهو ما يمكن مقاضاته بموجب القانون المحلي. وأوضح حكم المحكمة أن عرض العلم لا يخالف القانون في حال استُخدم ذلك للأغراض الفنية أو الأكاديمية أو الصحفية أو لأغراض المصلحة العامة الأخرى. كانت محكمة الاستئناف العليا قد أيدت هذا القرار في أبريل 2023.

وفي 29 مايو 2024، أجرت جنوب أفريقيا انتخابات الجمعية الوطنية. وقد خسر مقاعد الأغلبية البرلمانية المؤتمر الوطني الأفريقي، وهو الحزب السياسي الذي تزعَّمه نيلسون مانديلا بعد حقبة الفصل العنصري. وعلى الرغم من ذلك، فقد نجح زعيم الحزب الحالي سيريل رامافوزا في الحفاظ على رئاسته للبلاد من خلال تشكيل حكومة ائتلافية مع أحزاب المعارضة.

2. المعلومات المقدَّمة من المستخدمين

تم إبلاغ كاتبي المنشورين بالمراجعة التي أجراها المجلس مع إتاحة الفرصة لهما لإرسال بيان. لكن لم يتم تلقي أي رد.

وفي بيانه إلى المجلس، ذَكَر المستخدم، الذي أبلغ عن منشور الجندي، أن العلم السابق لجنوب أفريقيا مماثل لعلم ألمانيا النازية. وصرح قائلاً: "إن عرضه بهذا الشكل السافر" يحض على العنف لأن البلد لا يزال يعاني من نظام الفصل العنصري كجريمة ضد الإنسانية. كما ذَكَر المستخدم أن مشاركة تلك الصور خلال فترة الانتخابات من شأنها أن تحث على الكراهية العنصرية وأن تعرِّض حياة الآخرين للخطر. بالمثل، فإن المستخدم الذي أبلغ عن منشور شبكة الصور أوضح أن استخدام العلم غير قانوني، وأن المنشور ككل، يوحي بأن الفصل العنصري كان يمثل "حقبة أفضل" لمواطني جنوب أفريقيا. كما أكد كيف أن العلم السابق يجسد القمع، وأنه "ازدرائي" و"مؤلم" لأغلبية مواطني جنوب أفريقيا.

3. سياسات المحتوى والمعلومات المقدمة من Meta

1. سياسات المحتوى لدى Meta

معيار المجتمع بشأن السلوك الذي يحض على الكراهية (الذي كان يطلق عليه في السابق الخطاب الذي يحض على الكراهية)

لا تزال سياسة السلوك الذي يحض على الكراهية لدى Meta تنص على أن "الأشخاص يعبّرون عن آرائهم ويتواصلون بحرية أكبر عندما لا يشعرون أنهم معرضون للهجوم على أساس هوياتهم". وتعرِّف Meta "السلوك الذي يحض على الكراهية" بنفس الطريقة التي اتبعتها فيما سبق في تعريف "الخطاب الذي يحض على الكراهية"، وهو أنه "الهجوم المباشر ضد الأشخاص" على أساس سمات تتمتع بحقوق حماية، بما في ذلك العرق أو السلالة أو الأصل القومي. ونتيجةً لتوصية المجلس بتوضيح نهجها في حالة كارتون كنين، تذكر Meta في مقدمة إلى معايير المجتمع الخاصة بها أن الشركة قد تزيل المحتوى الذي يستخدم "لغة غامضة أو ضمنية" عندما يسمح لها السياق الإضافي أن تدرك، استنادًا إلى مبرراتٍ معقولة، أن المحتوى يتعارض مع معايير المجتمع.

بموجب الفئة الثانية من سياسة السلوك الذي يحض على الكراهية، تُحظر كأحد أشكال الهجوم المباشر "الدعوات التي تنادي بالإقصاء أو العزل أو تدعمهما أو العبارات التي تدل على وجود نية للإقصاء أو العزل"، سواء كانت في شكل مكتوب أو مرئي. وتحظر Meta الأنواع التالية من الدعوات التي تنادي بالإقصاء أو تدعمه: (1) الإقصاء العام، ويعني الدعوة إلى إقصاء أو عزل فئة معينة بشكل عام، مثل "ممنوع دخول X!"، و(2) الإقصاء السياسي، ويعني حرمان الأشخاص من حق المشاركة السياسية أو الدعوة إلى سجنهم أو إنكار حقوقهم السياسية، و(3) الإقصاء الاقتصادي، ويعني حرمان الأشخاص من الحصول على الاستحقاقات الاقتصادية وتقييد المشاركة في سوق العمل، و(4) الإقصاء الاجتماعي، ويعني أمورًا مثل حرمان الأشخاص من الحصول على مساحات فعلية أو عبر الإنترنت ومن الخدمات الاجتماعية. قبل 7 يناير، كان الحظر المفروض على "الإقصاء العام" يُطلق عليه "الإقصاء الصريح".

المنظمات الخطرة والأفراد الخطرون

تسعى سياسة Meta بشأن المنظمات الخطرة والأفراد الخطرين" إلى "منع إلحاق الضرر الفعلي على أرض الواقع وإيقافه".

بموجب مبادئ السياسة، تؤكد Meta أنها تزيل المحتوى الذي يمجد أو يدعم أو يمثل "أيديولوجيات الكراهية".

وتوضح Meta أنها تصنِّف الأيديولوجيات المحظورة، والتي تدرجها السياسة على أنها "تشمل النازية وسيادة العرق الأبيض والقومية البيضاء وانفصالية العرق الأبيض" لأنها "مرتبطة بطبيعتها بالعنف" وتحاول تنظيم الأشخاص حول دعوات إلى العنف أو إقصاء الآخرين على أساس سماتهم التي تتمتع بحقوق حماية". وإلى جانب هذا الإدراج مباشرةً، تذكر الشركة أنها تزيل التمجيد والدعم والتمثيل الصريح لهذه الأيديولوجيات (التشديد مضاف).

كما تذكر الشركة مرتين أنها تزيل أيضًا "الإشارات غير الواضحة" إلى أيديولوجيات الكراهية، مرة في مبادئ السياسة ومرة أخرى أسفل وصف المنظمات من الفئة الأولى.

توضح Meta أنها تطلب من المستخدمين في مبادئ السياسة "الإشارة بوضوح إلى نواياهم" عند إنشاء ذلك المحتوى أو مشاركته. فإذا كانت نية المستخدم "غامضة أو غير واضحة"، تزيل Meta المحتوى بشكل افتراضي.

2. المعلومات المقدَّمة من Meta

أبقت Meta على المنشورين على فيسبوك، حيث لم تجد بهما مخالفات لسياساتها. وأكدت Meta أن تحليلها للمحتوى لم يتأثر بالتغييرات التي أجرتها على سياساتها في 7 يناير.

وذكرت Meta أن المنشورين لم يخالفا سياسة السلوك الذي يحض على الكراهية لعدم وجود أي دعوات إلى إقصاء مجموعة محمية بموجب الفئة الثانية، ولخلوهما من أي هجوم مباشر آخر محظور. كما أن العبارات الواردة في المنشورين خلت من أي ذِكر لمجموعة محمية، كما لم يؤيد المنشوران اتخاذ إجراء معين. وبحسب Meta، فلكي تكون السياسة قابلة للتنفيذ على نطاق واسع، يتعين وجود هجوم "مباشر" وصريح، وليس هجومًا ضمنيًا. ولم يتضمن المنشوران أي هجوم صريح.

تشتمل توجيهات الإنفاذ الداخلية لدى Meta إلى المراجعين على قائمة توضيحية بالرموز التعبيرية المخالِفة في حالة استخدامها في سياق يسمح للمراجع بتأكيد وجود نية بالهجوم المباشر على شخص أو مجموعة على أساس سمة تتمتع بحقوق حماية. ويمكن للصور والشروح التوضيحية والتراكب النصي على الصور ومحتوى مقاطع الفيديو أن يساعد في الإشارة إلى ما يعنيه الرمز التعبيري. والقائمة عامة ولا تشتمل على الرمز التعبيري "OK".

قررت Meta أن المنشورين لم يخالفا سياستها بشأن المنظمات الخطرة والأفراد الخطرين. وأشارت Meta إلى أن العلم الذي ظهر في المنشورين كان يستخدم في جنوب أفريقيا خلال الفترة من 1928 إلى 1994، بما يشمل حقبة الفصل العنصري والأعوام التي سبقتها. وقد أقرّت الشركة أنه منذ نهاية حقبة الفصل العنصري وهذا العلم يستخدم في بعض الأحيان في إحياء الذكرى التاريخية لكنه كان يستخدم في أغلب الأحيان كرمز لإرث الإفريكانيين والفصل العنصري. وعلى الرغم من ذلك، تدرك الشركة أيضًا أن العلم يمثل معانٍ أخرى، بما يشمل ارتباطات جنوب أفريقيا بجوانب مختلفة لتلك الحقبة، مثل التجارب الشخصية والخدمة العسكرية وجوانب أخرى من المواطنة.

فيما يتعلق بحظر Meta على التمجيد أو الدعم أو التمثيل الصريح لأيديولوجيات الكراهية، ذكرت الشركة في توجيهاتها إلى المراجعين أن النازية وسيادة العرق الأبيض والقومية البيضاء وانفصالية العرق الأبيض هي فقط التي يمكن أن يطلق عليها أيديولوجيات الكراهية. وعلى الرغم من ذلك، فقد أوضحت Meta للمجلس أنها تزيل "الإشادة بسياسات العزل" مثل تلك التي تم تطبيقها خلال حقبة الفصل العنصري في جنوب أفريقيا في شكل انفصالية العرق الأبيض. وردًا على طلبات المجلس بذكر أمثلة، ذكرت Meta أنها ستزيل عبارة مثل "الفصل العنصري كان رائعًا" في معظم الحالات، لكن هذا ليس مثالاً قدِّم إلى المراجعين في توجيهات الإنفاذ. وتشمل الأمثلة على مخالفات السياسة التي قُدِّمت إلى المراجعين، على سبيل المثال لا الحصر، "سيادة العرق الأبيض هي الشيء الصحيح" و"نعم، أنا من مؤيدي القومية البيضاء".

رأت Meta أن العبارة التي وردت في منشور الجندي وهي "شارِكوا المنشور في حال خدمتم في الجيش تحت هذا العلم" خلت من أي تمجيد أو دعم لأيديولوجية كراهية مصنَّفة. وبالمثل، فإن الشرح التوضيحي لمنشور شبكة الصور الذي يصف حقبة الفصل العنصري على أنها "الأيام الخوالي الجميلة" ويطلب من المستخدمين "قراءة ما بين السطور" [الرمزان التعبيريان الوجه الغامز و"OK"] جنبًا إلى جنب مع عَلَم الفصل العنصري والصور التاريخية لتلك الحقبة، لا تمثل، في حد ذاتها، تمجيدًا لأيديولوجية كراهية أو دعمًا لها. وعلى الرغم من أن Meta تقر بأن الرمز التعبيري "OK" يرتبط في بعض السياقات بحركة قوة البِيض، فإن وجهة نظر الشركة أنه يعني في الغالب "موافق" ومن ذلك ما يكون في جنوب أفريقيا. واستنتجت Meta أن استخدامه هنا ليس الغرض منه تمجيد أيديولوجية كراهية أو دعمها.

كجزء من جهودها المبذولة لضمان النزاهة لانتخابات جنوب أفريقيا في مايو 2024، أجرت Meta حملات تتعلق بالمعلومات المضللة وضد الخطاب الذي يحض على الكراهية على منصاتها والإذاعة المحلية في الفترة التي تسبق إجراء الانتخابات. وقد جرى تصميم هذه الحملات لتوعية الأشخاص حول تحديد الخطاب الذي يحض على الكراهية والمعلومات المضللة على الإنترنت والإبلاغ عنهما.

طرح المجلس أسئلة على Meta حول سياسة السلوك الذي يحض على الكراهية المعادة تسميتها وسياسة المنظمات الخطرة والأفراد الخطرين وإنفاذها، وحول الرموز والأيديولوجيات التي يمكن أن تنتهك هذه السياسات وتقويض الجهود التي تبذلها Meta لضمان نزاهة انتخابات جنوب أفريقيا. وقد ردَّت Meta على كل الأسئلة.

4. التعليقات العامة

تلقى مجلس الإشراف 299 تعليقًا عامًا استوفت شروط إرسال التعليقات. تم إرسال 271 تعليقًا من دول أفريقيا الواقعة جنوب الصحراء الكبرى، و10 من أوروبا، وأربعة من وسط وجنوب آسيا، وخمسة من الولايات المتحدة وكندا، وسبعة من الشرق الأوسط وشمال أفريقيا، واثنين من منطقة آسيا والمحيط الهادئ والأوقيانوس. ونظرًا لإغلاق فترة التعليقات العامة قبل 7 يناير 2025، لم يتناول أيٌ من التعليقات تغييرات السياسة التي أجرتها Meta في ذلك التاريخ. وللاطلاع على التعليقات العامة المقدَّمة التي وافق أصحابها على نشرها، انقر هنا.

وقد تناولت التعليقات الموضوعات التالية: ما يشير إليه علم حقبة الفصل العنصري في تاريخ جنوب أفريقيا وسياساتها، وتأثير عرض ذلك العلم على غير أصحاب البشرة البيضاء والجهود المبذولة لبناء جنوب أفريقيا متعددة الثقافات، وما إذا كان ينبغي السماح بالمنشور على منصات Meta، والاستخدامات المشفرة للرموز عبر الإنترنت والنُهُج الموصى بها للإشراف على الصور المرئية التي قد تشكل هجومًا ضمنيًا على مجموعات محمية.

5. تحليل مجلس الإشراف

اختار المجلس هاتين الحالتين للتعامل مع مدى احترام Meta لحرية التعبير وغيرها من حقوق الإنسان في سياق الانتخابات وكيفية تعامُل الشركة مع الصور المرتبطة بتاريخ جنوب أفريقيا الحديث فيما يتعلق بالفصل العنصري. وتأتي هاتان الحالتان ضمن الأولويات الاستراتيجية للمجلس تجاه موضوعات الانتخابات والساحة المدنية والخطاب الذي يحض على الكراهية ضد الفئات المهمشة.

قام المجلس بتحليل قرارات Meta في هاتين الحالتين في ضوء سياسات المحتوى التي تتبعها الشركة وقيمها ومسؤولياتها تجاه حقوق الإنسان. كما أجرى المجلس تقييمًا للآثار المترتبة على هاتين الحالتين فيما يتعلق بنهج Meta الأوسع لإدارة المحتوى.

1.5 الامتثال لسياسات المحتوى لدى شركة Meta

معيار المجتمع بشأن السلوك الذي يحض على الكراهية (الذي كان يطلق عليه في السابق الخطاب الذي يحض على الكراهية)

يوضح المجلس أن حظر Meta على "الدعوات التي تنادي بالإقصاء أو العزل أو تدعمهما" المستندة إلى سمة تتمتع بحقوق حماية، مفتوح لاثنين، على الأقل، من التفسيرات، ولم يتأثر أيٌ منهما بالتغييرات التي أجرتها الشركة على سياساتها في 7 يناير. فأغلبية أعضاء المجلس، مع تأكيدهم على ما توليه Meta من أهمية قصوى لحرية الرأي، يفضلون القراءة الضيقة للقاعدة التي تشترط تأييد الإقصاء أو العزل. أما أقلية من أعضاء المجلس، ومع تنويهها بما توليه Meta لقيمة الكرامة، فتستخدم قراءة أوسع وتفسر الحظر بحيث يشمل كذلك دعم الإقصاء أو العزل بشكل عام.

ترى أغلبية أعضاء المجلس أن المنشورين لم يخالفا هذا الحظر. وبينما يبدو أن المنشورين يعرضان حنينًا إلى حقبة الفصل العنصري، إلا أنهما لا يدعوان إلى إعادة العمل بنظام الفصل العنصري أو أيٍ من أشكال الإقصاء العنصري الأخرى.

وبالنظر إلى منشور الجندي، تدرك أغلبية أعضاء المجلس أن كثيرًا من الأشخاص يرون عَلَم الفترة من 1928 إلى 1994 على أنه رمز لنظام الفصل العنصري. وعلى الرغم من ذلك، فإن العلم في حد ذاته، جنبًا إلى جنب مع أحد العبارات عن الخدمة العسكرية، لا يناديان بالإقصاء أو العزل. فلكي يكون المنشور مخالفًا، يتطلب الأمر اشتماله على عناصر أخرى. وعلى الرغم من استدعاء العلم بشكل إيجابي في هذا المنشور، فإن ذلك السياق خاص بالخدمة العسكرية، وليس ثمة عبارة أو إشارة واضحة بما يكفي للقول بضرورة إعادة العمل بالفصل العنصري أو سياسات مشابهة. وبغض النظر عن مدى الانقسام أو عدم الحساسية التي قد تثيرها مشاركة هذا العلم لدى الكثيرين في جنوب أفريقيا في الوقت الحاضر، فسيكون من الخطأ الافتراض، دون المزيد من الأدلة، أن هذا المنشور يدعو إلى الإقصاء العنصري أو العزل الذي من شأنه أن ينتهك هذه السياسة.

وبالمثل، ترى أغلبية أعضاء المجلس أن منشور شبكة الصور، الذي يضم صورة علم الفترة من 1928 إلى 1994 جنبًا إلى جنب مع صور فوتوغرافية من حقبة الفصل العنصري في جنوب أفريقيا والشرح التوضيحي المصاحب، لا يدعو إلى العزل أو الإقصاء. بل من المحتمل بشكل معقول أن يثير المنشور حنينًا عامًا إلى الفترة التي يصورها. تقرّ أغلبية أعضاء المجلس بأن عبارات "الأيام الخوالي الجميلة" و "قراءة ما بين السطور"، والرمزين التعبيريين الوجه الغامز و"OK"، تشكل معًا، بالاشتراك مع الصور الفوتوغرافية، مؤشرات على رسالة عنصرية تغيِّر كيفية إدراك الصور وحدها. وعلى الرغم مع ذلك، فإن سياسة Meta بشأن السلوك الذي يحض على الكراهية لا تحظر التعبير عن كل وجهات النظر التي تتسم بعدم الحساسية العنصرية أو حتى العنصرية. علاوةً على ذلك، فإن المنشور، ككل، لا يرقى إلى مستوى الدعوة إلى إعادة العمل بنظام الفصل العنصري أو غيره من أشكال العزل أو الإقصاء العنصري، ومن ثم فهو مسموح به.

بالنسبة إلى أقلية من أعضاء المجلس، يعتبر علم الفترة من 1928 إلى 1994 رمزًا مباشرًا وغير غامض للفصل العنصري. وعند مشاركته مصحوبًا بإشارة إيجابية أو محايدة (بدلاً من الإدانة)، يُفهم هذا الرمز من السياق في جنوب أفريقيا على أنه تأييد للعزل والإقصاء العنصري، وبالتالي فهو مخالف. وبالنسبة إلى هذه الأقلية، من غير الممكن أن يكون عرض العلم مراعيًا للمشاعر، ولا يمكن تفسيره إلا على أنه دعم للإقصاء العنصري في حقبة الفصل العنصري (راجع أيضًا التعليقات العامة، بما يشمل تلك الصادرة عن لجنة حقوق الإنسان في جنوب أفريقيا ومؤسسة نيلسون مانديلا، والتي تشير إلى قرار محكمة الاستئناف العليا لعام 2023؛ التعليقات العامة رقم PC-30759، و PC-30771 ، و PC-30768، و PC-30772، و PC-30774). كما اختير علم حقبة الفصل العنصري أيضًا من قِبل حركات القومية البيضاء في أجزاء أخرى من العالم (PC-30769).

لهذه الأسباب، ترى تلك الأقلية أن المنشورين يشكلان دعمًا للإقصاء العنصري. فمنشور الجندي، الذي يحث الآخرين على إعادة مشاركة العَلَم، لا يمكن فهمه إلا على أنه دعم لسياسة العزل العنصري التي يمثلها العَلَم. وبالنظر إلى منشور شبكة الصور ككل، فإن الصور والشرح التوضيحي يجعلان دعم المنشور للإقصاء والعزل العنصري واضحًا. ولأن المنشور يشتمل على العِلَم دون سياق إدانة أو تعزيز الوعي، فإنه بذلك مخالف بناءً على هذا الأساس وحده. علاوةً على ذلك، يبدو أن الصور الفوتوغرافية الأخرى هي صور جاهزة لجوانب من الحياة التي كانت معزولة؛ فهي لا تحكي قصة شخصية عن الحنين إلى الماضي، كما يوضح الشرح التوضيحي أيضًا. كما أن استخدام الرمز التعبيري "OK" الخاص بحركة قوة البِيض في الشرح التوضيحي له دلالة ومغزى. إذ يُفهم هذا الرمز التعبيري على الصعيد العالمي من قبل مؤيدي سيادة العرق الأبيض على أنه خطاب مقنَّع يحض على الكراهية ورسالة مبطَّنة، حيث يستخدم حرفيًا الحرف "W" (الأبيض) بثلاثة أصابع والحرف "P" (القوة) بالإبهام والسبابة معًا (راجع PC-30768). ولم يكن إدراجه هنا بمعزلٍ عن سياقه. وعندما يأتي مصحوبًا بصور تحكي عن نظام الفصل العنصري وإشارة إلى "الأيام الخوالي الجميلة"، ودعوة المستخدمين إلى "قراءة ما بين السطور"، جنبًا إلى جنب مع رمز تعبيري لوجه غامز، فحتى الشخص غير المعتاد على الرموز المؤيدة لأيديولوجية سيادة العرق الأبيض لن يتردد في فهم أن هذا المنشور يدعم الإقصاء العنصري، وهو بذلك مخالف. وبالنسبة إلى الأقلية من أعضاء المجلس، فعند التوصل إلى هذا الاستنتاج، من المهم فهم كيف تكيَّف استخدام اللغة والرموز العنصرية عبر الإنترنت للتهرب من الإشراف على المحتوى، وكيف يمكن استخدام تعبيرات أكثر دقة (ولكنها مع ذلك مباشرة) عن دعم الإقصاء لربط الأشخاص ذوي طريقة التفكير المشابهة. وكما هو الحال هنا، يمكن أن يكون الخطاب الذي يحض على الكراهية المشفر أو غير المباشر غير غامض على نحو مثير للقلق، حتى عندما لا يذكر العبارات الحرفية للمعنى المقصود.

معيار المجتمع بشأن المنظمات الخطرة والأفراد الخطرين

من خلال الأسئلة التي طرحها المجلس على Meta، يدرك المجلس أن تصنيف الشركة لانفصالية العرق الأبيض كأيديولوجية كراهية يشمل نظام الفصل العنصري في جنوب أفريقيا. وعلى الرغم مع ذلك، يمكن للتوجيهات الداخلية لمراجعي Meta أن تجعل هذا الأمر أكثر وضوحًا من خلال تقديم أمثلة أوسع للمخالفات. وكما هو موضح في القسم 2.5 (الشرعية) أدناه، فإن قواعد Meta بشأن الأيديولوجيات المصنفة يعتريها الغموض. يرى المجلس بالإجماع أن المنشورين كليهما مخالفان لمعيار المجتمع بشأن المنظمات الخطرة والأفراد الخطرين، ولكن لأسبابٍ مختلفة. فبالنسبة إلى أغلبية أعضاء المجلس، يستوفي المنشوران شروط تعريف Meta للإشارات غير الواضحة إلى انفصالية العرق الأبيض، وهو ما تحظره السياسة. أما بالنسبة لأقلية من أعضاء المجلس، فإن المنشورين كليهما يرقيان إلى مستوى تمجيد انفصالية العرق الأبيض.

يشير المجلس إلى أن عَلَم جنوب أفريقيا للفترة من 1928 إلى 1994 لا يمكن فصله عن نظام الفصل العنصري، كونه يمثل أحد أشكال الأيديولوجيات التي تروج لانفصالية العرق الأبيض. فقد كان هو العلم الوطني خلال عقدين من التمييز العنصري القانوني الذي سبق الفصل العنصري، وكذلك منذ تأسيس نظام الفصل العنصري في عام 1948.

بالنسبة إلى أغلبية أعضاء المجلس، فإن منشور الجندي، الذي يشجع الآخرين على إعادة المشاركة إذا كانوا قد خدموا في الجيش تحت هذا العلم، لا يمجد صراحةً نظام الفصل العنصري كأحد أشكال سيادة العرق الأبيض في إشاراته الصريحة والإيجابية إلى الخدمة العسكرية. وبالمثل، فإن منشور شبكة الصور لا يوضح ما إذا كان يلمح إلى تجارب شخصية خلال حقبة الفصل العنصري أو يمجدها. وعلى الرغم مع ذلك، وبحسب المشار إليه أعلاه، فثمة العديد من المؤشرات على وجود رسالة عنصرية في هذا المنشور، أبرزها استخدام الرمز التعبيري "OK" مع العَلَم. وبالنسبة إلى أغلبية أعضاء المجلس، فإن المؤشرات الإيجابية لكن غير المباشرة في المنشورين تشكل "إشارة غير واضحة" مخالِفة إلى انفصالية العرق الأبيض، لكنها ليست صريحة بما يكفي لترقى إلى مستوى "التمجيد".

بالنسبة إلى أقلية من أعضاء المجلس، يستوفي المنشوران حد التمجيد الصريح لأيديولوجية انفصالية العرق الأبيض للأسباب نفسها التي يشكلان بها دعمًا للإقصاء أو العزل العنصري بموجب سياسة السلوك الذي يحض على الكراهية. ففي منشور الجندي، الإشارة الإيجابية إلى علم حقبة الفصل العنصري كونه يمثل رمزًا متأصلًا لانفصالية العرق الأبيض، بما في ذلك ما يكون في سياق الخدمة العسكرية، تشكل تمجيدًا لتلك الأيديولوجية، حتى دون ذِكر سياسات الفصل العنصري على وجه التحديد. وبالنسبة إلى منشور شبكة الصور، فإن الجمع بين رمز حركة قوة البيض (الرمز التعبيري "OK") والعَلَم وعبارة "الأيام الخوالي الجميلة"، يمجد أيضًا هذه الأيديولوجية صراحةً. بالنسبة إلى أعضاء المجلس هؤلاء، فإن المستخدمين الذين أبلغوا عن المنشورين والتعليقات التي اجتذبها المنشوران، يؤكدون أن تمجيد المحتوى للفصل العنصري كان مفهومًا جيدًا من الجمهور. كما توضح العديد من التفاعلات على المنشورين كيف يمكن لعمليات تواصل مؤيدي سيادة العرق الأبيض الفجة أن تتهرب على نحو إبداعي من الإشراف على المحتوى. كما تُظهِر تلك التفاعلات كيف يمكن للجهات الفاعلة التي تحض على الكراهية المتصلة بالشبكات استغلال تصميم منصات Meta لنشر رسالتها والتعرف على أعضاء جدد وزيادة أعدادهم.

2.5 الامتثال لمسؤوليات Meta تجاه حقوق الإنسان

ترى أغلبية أعضاء المجلس أن الإبقاء على هذين المنشورين على المنصة يتفق مع مسؤوليات Meta تجاه حقوق الإنسان. وتختلف أقلية من أعضاء المجلس في الرأي، حيث ترى أن الإزالة تتماشى مع هذه المسؤوليات.

حرية التعبير (المادة 19 من العهد الدولي الخاص بالحقوق المدنية والسياسية)

توفر المادة 19 من العهد الدولي الخاص بالحقوق المدنية والسياسية حماية واسعة لحرية التعبير، بما في ذلك ما يتعلق بالسياسات والشئون العامة وحقوق الإنسان (التعليق العام رقم 34، الفقرتان 11 - 12). كما أكدت لجنة الأمم المتحدة المعنية بحقوق الإنسان أن قيمة حرية التعبير عالية لا سيّما عند مناقشة القضايا السياسية (التعليق العام رقم 34، الفقرتان 11 و13). وأكدت لجنة الأمم المتحدة المعنية بحقوق الإنسان على أن حرية التعبير ضرورية لإدارة الشؤون العامة وممارسة الحق في التصويت بشكل فعّال (التعليق العام رقم 34، الفقرة 20؛ راجع أيضًا التعليق العام رقم 25، الفقرتان 12 و25). وعند فرض الدولة قيودًا على حرية التعبير، يجب أن تفي تلك القيود بمتطلبات الشرعية والهدف المشروع والضرورة والتناسب (المادة 19، الفقرة 3، العهد الدولي الخاص بالحقوق المدنية والسياسية). وتتم الإشارة إلى هذه المتطلبات غالبًا باسم "الاختبار الثلاثي".

يستخدم المجلس إطار العمل هذا لتفسير مسؤوليات Meta في مجال حقوق الإنسان بما يتماشى مع مبادئ الأمم المتحدة التوجيهية بشأن الأعمال التجارية وحقوق الإنسان، والتي التزمت بها Meta نفسها في سياسة حقوق الإنسان الخاصة بالشركة. ويقوم المجلس بذلك فيما يتعلق بالقرارات الفردية بشأن المحتوى الخاضع للمراجعة، وما يخبرنا به ذلك عن نهج Meta الأوسع تجاه إدارة المحتوى. وكما ذكر مقرر الأمم المتحدة الخاص المعني بحرية التعبير، فإنه وعلى الرغم من أن "الشركات لا تتحمل التزامات الحكومات، إلا أن تأثيرها يتطلب منها تقييم نفس النوع من الأسئلة المتعلقة بحماية حقوق مستخدميها في حرية التعبير،" (A/74/486، الفقرة 41).

1. الشرعية (وضوح القواعد وسهولة الوصول إليها)

يتطلب مبدأ الشرعية أن تكون القواعد التي تقيِّد حرية التعبير واضحة ويسهُل الوصول إليها، وأن تُصاغ بدقة كافية لتمكين الأشخاص من ضبط سلوكهم تبعًا لها (التعليق العام رقم 34، الفقرة 25). علاوةً على ذلك، فإن هذه القواعد "لا يجوز أن تمنح الأشخاص المسؤولين عن تنفيذها سلطة تقديرية مطلقة في تقييد حرية التعبير"، ويجب أن "تنص على توجيهات وافية للمكلفين بتنفيذها لتمكينهم من التحقق على النحو المناسب من أنواع التعبير التي تخضع للتقييد وتلك التي لا تخضع لهذا التقييد،" (المرجع نفسه). وعند تطبيقها على قيام الجهات الفاعلة الخاصة بحوكمة الخطاب على الإنترنت، يجب أن تكون القواعد واضحة ومحددة (A/HRC/38/35، الفقرة 46). كما ينبغي أن يتمكن الأشخاص الذين يستخدمون منصات Meta من الوصول إلى هذه القواعد وفهمها، فضلاً عن ضرورة أن تتوفر لمراجعي المحتوى توجيهات واضحة فيما يتعلق بإنفاذها.

تسلط هاتان الحالتان الضوء على اثنتين من مشكلات الوضوح المتعلقة بمحظورات Meta على السلوك الذي يحض على الكراهية. أولاً، قدمت Meta إلى المجلس ردودًا متضاربة بشأن ما إذا كانت "الهجمات المباشرة" تشمل عبارات ضمنية أم لا (أثيرت مخاوف مشابهة في حالة كارتون كنين التي نظر فيها المجلس). بالإضافة إلى ذلك، فإن تحديد ما إذا كانت القاعدة بشأن "الدعوات إلى الإقصاء أو العزل أو دعمهما" تقتصر على الدعوة إلى الإقصاء أم تشمل أي دعم أوسع للإقصاء أو العزل أمر غير واضح أيضًا. ويتفاقم هذا بسبب نقص الأمثلة العامة للمخالفات المقدمة إلى المراجعين، حيث لا يشمل أي منها الفصل العنصري.

كما أن معيار المجتمع بشأن المنظمات الخطرة والأفراد الخطرين يتضمن لغة متضاربة بشأن نهج Meta تجاه أيديولوجيات الكراهية. ففي بعض الأجزاء، تنص السياسة على أن الإشارات غير الواضحة إلى أيديولوجيات الكراهية محظورة، بينما تشير في أجزاء أخرى إلى أن "التمجيد أو الدعم أو التمثيل الصريح" فقط هو المحظور. وتنص التوجيهات الداخلية المقدمة إلى المراجعين على أن "الإشارات والتمجيد والدعم أو التمثيل" كلها أمور محظورة. ولا تشير قائمة المحظورات الواردة في قسم "نقوم بإزالة" في السياسة إلى القاعدة المطبقة على أيديولوجيات الكراهية على الإطلاق، مما يخلق مزيدًا من الارتباك.

بينما يرى المجلس أن "انفصالية العرق الأبيض" يجب أن تشمل ضمنيًا الفصل العنصري بحسب تطبيقه في جنوب أفريقيا، فإن توجيهات Meta الداخلية للمراجعين لا تجعل هذا الأمر صريحًا، كما لا تتضمن أمثلة وافية تتعلق بسياق جنوب أفريقيا. والأمثلة على المحتوى المخالف التي قدمتها Meta إلى المجلس ردًا على الأسئلة (على سبيل المثال، "الفصل العنصري كان رائعًا" و"سيادة العرق الأبيض هي الشيء الصحيح") لا تعكس حقائق كيف يتم في أغلب الأحيان وضع إطار للرسائل العنصرية المتعلقة بالسيادة العرقية. وفي الوقت نفسه، يلاحظ المجلس أنه في حين أن الفصل العنصري بحسب تطبيقه في جنوب أفريقيا متشابك بطبيعته مع انفصالية العرق الأبيض وسيادة العرق الأبيض، فإن مفهوم الفصل العنصري في القانون الدولي ينطبق على الهيمنة المتعمدة لأي مجموعة عرقية على أخرى بغرض قمعها بشكل منهجي (نظام روما الأساسي للمحكمة الجنائية الدولية، المادة 7(2)(ح)؛ اتفاقية مناهضة الفصل العنصري، المادة 2). وهذا بدوره يثير تساؤلات حول سبب عدم إدراج الفصل العنصري كتصنيف مستقل. ونظرًا لأن سياسات Meta عالمية، فقد تساءل العديد من أعضاء المجلس أيضًا عن سبب تمحور قائمة Meta حول أيديولوجيات قد تشكل مخاطر في مناطق الأقلية العالمية مع التزام الصمت إزاء العديد من أيديولوجيات الكراهية المشابهة في مناطق الأغلبية العالمية.

2. الهدف المشروع

ينبغي أن تستند أي قيود مفروضة على حرية التعبير إلى واحد أو أكثر من الأهداف المشروعة الواردة في العهد الدولي الخاص بالحقوق المدنية والسياسية، والتي من بينها حماية حقوق الآخرين (المادة 19، الفقرة 3، العهد الدولي الخاص بالحقوق المدنية والسياسية).

وقد أقرّ المجلس في السابق بأن معيار المجتمع بشأن سياسة الخطاب الذي يحض على الكراهية يسعى إلى تحقيق هدف مشروع يتمثل في حماية حقوق الآخرين. وتتضمن هذه الحقوق الحق في المساواة وعدم التمييز (المادة 2، الفقرة 1، العهد الدولي الخاص بالحقوق المدنية والسياسية، والمادتان 2 و5 من الاتفاقية الدولية للقضاء على جميع أشكال التمييز العنصري). وينطبق الأمر كذلك على السياسة المراجعة بشأن السلوك الذي يحض على الكراهية.

وبالمثل، يرى المجلس أن سياسة المنظمات الخطرة والأفراد الخطرين، التي تسعى إلى "منع إلحاق الضرر الفعلي على أرض الواقع وإيقافه"، تحقِّق الهدف المشروع المتمثل في حماية حقوق الآخرين، مثل الحق في الحياة (العهد الدولي الخاص بالحقوق المدنية والسياسية، المادة 6) والحق في عدم التمييز والمساواة (العهد الدولي الخاص بالحقوق المدنية والسياسية، المادتان 2 و26).

3. الضرورة والتناسب

بموجب المادة 19(3) من العهد الدولي الخاص بالحقوق المدنية والسياسية، فإن الضرورة والتناسب يتطلبان أن تكون القيود المفروضة على حرية التعبير "مناسبة لتحقيق وظيفة الحماية المنوطة بها، ويجب أن تكون أقل الوسائل تدخلاً مقارنة بغيرها من الوسائل التي يمكن أن تحقق النتيجة المنشودة؛ ويجب أن تكون متناسبة مع المصلحة التي ستحميها" (التعليق العام رقم 34، الفقرة 34).

ترى أغلبية أعضاء المجلس أن الإبقاء على المنشورين كليهما يتماشى مع مسؤوليات Meta تجاه حقوق الإنسان، وأن الإزالة لن تكون ضرورية ومتناسبة. ويقرّ هؤلاء الأعضاء بأن إرث الفصل العنصري لا يزال قائمًا وله عواقب بعيدة الأمد يصاحبها تأثير ملموس في جميع أنحاء جنوب أفريقيا في الوقت الحاضر. وفي الوقت نفسه، يمنح القانون الدولي لحقوق الإنسان حماية معززة لحرية التعبير المتعلقة بالمشاركة السياسية، بما في ذلك ما يكون في سياق الانتخابات (التعليق العام رقم 25، الفقرتان 12 و25). وفي حالة تعليقات السياسيين بشأن التغييرات الديموغرافية، أكد المجلس على أن التعبير عن الآراء المثيرة للجدل مكفول بالحماية بموجب المعايير الدولية لحقوق الإنسان. ويشكل المنشوران تعبيرًا مكفولاً بالحماية. وحتى لو اعتبرت الآراء "مسيئة للغاية"، فإن هذا لا يحولها إلى تحريض على التمييز المحتمل والوشيك (راجع التعليق العام رقم 34، (2011)، الفقرة 11، وراجع أيضًا الفقرة 17 من تقرير مقرر الأمم المتحدة الخاص المعني بحرية التعبير لسنة 2019، A/74/486).

تؤكد أغلبية أعضاء المجلس على أن مقرر الأمم المتحدة الخاص المعني بحرية التعبير أوضح أن حظر الخطاب يمكن تبريره عندما يكون ثمة ضرر فعلي وشيك ومحتمل. ولكن عندما لا تكون الأضرار محتملة أو وشيكة، يمكن اتخاذ تدابير أخرى (راجع A/74/486، الفقرتان 13 و54). وبالمثل، ذكرت لجنة الأمم المتحدة المعنية بحقوق الإنسان ما يلي: "بوجه عام، يجب اعتبار استخدام الأعلام والزي الرسمي واللافتات والشعارات أحد أشكال التعبير المشروعة الذي ينبغي عدم تقييده، حتى لو كانت هذه الرموز بمثابة تذكير بماضٍ مؤلم. وفي حالات استثنائية، حيث ترتبط فيها مثل هذه الرموز بشكل مباشر، وفي الغالب يكون ذلك بالتحريض على التمييز أو العداوة أو العنف، ينبغي تطبيق القيود المناسبة" (التعليق العام رقم 37 بشأن الحق في التجمع السلمي، CCPR/C/GC/37، الفقرة 51).

بالنسبة إلى أغلبية أعضاء المجلس، فثمة مخاوف إزاء الاتساع المفرط لحظر معيار المجتمع بشأن المنظمات الخطرة والأفراد الخطرين على "الإشارات غير الواضحة". وبينما تسعى Meta إلى الحد من الأخطاء في الإشراف على محتواها، حسبما أُعلن في 7 يناير، يشجع أعضاء المجلس هؤلاء على إجراء دراسة لتحديد مدى دقة وإحكام إنفاذ قاعدة "الإشارات غير الواضحة"، فضلاً عن توافق عمليات الإزالة مع مسؤوليات Meta تجاه حقوق الإنسان.

استخدم المجلس في كثير من الأحيان الاختبار سداسي العوامل الوارد في خطة عمل الرباط لتقييم ما إذا كان التحريض على العنف أو التمييز محتملًا ووشيكًا. وترى الأغلبية أن هذا لم يتحقق في أيٍ من المنشورين. وبالنسبة إلى الأغلبية، فإن احتمالية التمييز أو العنف الوشيك الذي يمثله المحتوى منخفضة لأسباب متنوعة. وكما هو موضح أعلاه، فإن السياق التاريخي للفصل العنصري في جنوب أفريقيا وإرثه المستمر لهما أهميتهما في تفسير هذين المنشورين. وفي الوقت نفسه، فإن الديمقراطية التمثيلية المستقرة نسبيًا في البلد منذ نهاية الفصل العنصري وإطارها القانوني القوي لحماية حقوق الإنسان، مهمان أيضًا، لا سيما وأن جنوب إفريقيا شهدت انتخابات وقت نشر هذين المنشورين. وقد أشار خبراء استشارهم المجلس إلى أن لغة سيادة العرق الأبيض لم تمثل مشكلة رئيسية خلال انتخابات مايو 2024. وقالوا إن الفترة التي سبقت تلك الانتخابات لم تشهد عنفًا بين الأعراق ولا دعوات إلى العنف من الأقلية من أصحاب البشرة البيضاء ضد الجماعات العرقية أو الإثنية الأخرى. إذ لم يصدر أيٌ من المنشورين عن متحدث بارز أو مؤثر، مما يقلل من خطر إقناع أي من المنشورين لأي شخص بالمشاركة في ارتكاب أعمال تمييز أو عنف وشيكة. ولا يتضمن أي من المنشورين دعوات إلى اتخاذ إجراء. كما يخلو المنشوران من نية واضحة للدعوة إلى ارتكاب أعمال تمييز أو عنف مستقبلية، ولا يمكن فهمهما على أنهما دعوة للناس إلى الانخراط في مثل تلك الأعمال. وفي ضوء هذه العوامل المتنوعة، تقرِّر أغلبية أعضاء المجلس أنه لم يكن من المحتمل ولا الوشيك أن ينجم عن هذين المنشورين أعمال عنف أو تمييز.

إن حظر الخطاب المسيء للغاية الذي لا يحرض على إلحاق ضرر وشيك ومحتمل لا يترتب عليه اختفاء الأفكار المتعصبة. بل إنه يدفع الأشخاص الذين يحملون هذه الأفكار إلى منصات أخرى، وغالبًا مع يكون ذلك مع أشخاص متشابهين معهم في التفكير بدلاً من الانضمام إلى مجموعة أوسع من الأفراد. وهذا من شأنه أن يفضي إلى تفاقم التعصب بدلاً من إتاحة المجال أمام خطاب عام أكثر شفافية حول القضايا.

ترى أغلبية أعضاء المجلس أن مجموعة متنوعة من أدوات الإشراف على المحتوى الأخرى عدا الإزالة كان يمكن أن تشكل وسيلة أقل تدخلاً لتحقيق أهداف مشروعة في هاتين الحالتين. وتقرّ هذه الأغلبية بالآثار النفسية السلبية المحتملة للمحتوى في هاتين الحالتين وكذلك هدف Meta المشروع المتمثل في السعي إلى منع التمييز. وحسبما ذكر المجلس في أحد آرائه الأولى (علاج فيروس كورونا (كوفيد-١٩) المزعوم)، ينبغي للشركة أولاً أن تسعى إلى تحقيق أهداف مشروعة بنشر تدابير لا تنتهك حرية التعبير. وإذا تعذر ذلك، فينبغي للشركة اختيار الأداة الأقل تدخلاً لتحقيق الهدف المشروع. وبعدها، ينبغي لها مراقبة مدى فعّالية الأداة المختارة. وينبغي لشركة Meta استخدام إطار العمل هذا في التبرير العلني لقواعدها وإجراءات الإنفاذ.

في الواقع، أشار مقرر الأمم المتحدة الخاص المعني بحرية التعبير (A/74/486، الفقرة 51) إلى ما يلي: "لدى الشركات أدوات للتعامل مع المحتوى بطرق تتماشى مع حقوق الإنسان، وفي بعض النواحي، لديها مجموعة أدوات أوسع من تلك التي تتمتع بها الدول". ويحث المجلس Meta على استكشاف إمكانية توسيع مجموعة أدوات الإنفاذ الخاصة بها بشفافية واستحداث تدابير متوسطة في إنفاذ معيار مجتمعها بشأن السلوك الذي يحض على الكراهية بدلاً من اللجوء إلى خيار ثنائي ينحصر في الإبقاء أو الإزالة. في حالة البرنامج التلقائي ليمانمار، تبيَّن للمجلس أن "المسؤوليات المتزايدة ينبغي ألا تؤدي إلى الإزالة افتراضيًا، حيث تتساوى المخاطر الناجمة عن الإبقاء على المحتوى الضار مع المخاطر الناجمة عن إزالة المحتوى الذي يشكل خطرًا ضئيلاً أو معدومًا". ويحث المجلس Meta على دراسة كيف يمكن أن تكون إزالة المحتوى إجراءً متطرفًا يؤثر سلبًا على حرية التعبير عبر الإنترنت. كما يحث المجلس الشركة على النظر في أدوات أخرى، مثل إزالة المحتوى من التوصيات أو الحد من انتشاره في مواجز المستخدمين، في الظروف المناسبة.

ترى أقلية من أعضاء المجلس أن إزالة المنشورين كليهما ستشكل قيدًا ضروريًا ومتناسبًا على حرية التعبير لضمان احترام الحق في المساواة وكذلك التحرر من التمييز لمواطني جنوب أفريقيا من غير ذوي البشرة البيضاء. وتسترشد هذه الأقلية بالعوامل الواردة في خطة الرباط لتقييم المخاطر التي يشكلها الخطاب المحتمل الذي يحض على الكراهية، بما في ذلك الأضرار التي ساهم فيها هذان المنشوران (المرجع السابق).

وعلى وجه التحديد، تشير أقلية من الأعضاء إلى التعليقات العامة الصادرة عن مؤسسة نيلسون مانديلا واللجنة المعنية بحقوق الإنسان في جنوب أفريقيا، من بين جملة جهات أخرى. وتؤكد هذه التعليقات على الطرق المتنوعة التي يساهم بها التعبير على منصات Meta، والذي يدعم أو يبرر أو يمجد العزل العنصري بأي شكل من الأشكال، في استمرار التمييز بعد الفصل العنصري (PC-30759، و PC-30771، و PC-30768، و PC-30772، و PC-30774). كما أن التعليقات الواردة أسفل كل منشور، والمكتوبة في أغلبها باللغة الأفريكانية التي تكشف عن شعور بسيادة العرق الأبيض متجذر في سياسة الاستعمار، تؤكد لهذه الأقلية أن نية المتحدث للدعوة إلى الكراهية في بيئة من التمييز الشديد كانت ناجحة. وتشير الأقلية إلى أنه في حالية تصوير زوارت بييت، أيدت أغلبية أعضاء المجلس إزالة منشور من منطلق آثاره على احترام الذات والصحة العقلية للأشخاص من أصحاب البشرة السمراء، حتى عندما لم تكن تلك الآثار مقصودة بشكل مباشر من قِبل المتحدث. وهذه الحالة وثيقة الصلة بما يتجاوز جنوب أفريقيا. وقد أشار خبراء استشارهم المجلس إلى أن رموز الفصل العنصري، بما يشمل عَلَم الفترة من 1928 إلى 1994، قد تبنتها حركات القومية البيضاء في أجزاء أخرى من العالم أيضًا. ويشمل ذلك ديلان روف، الذي قتل تسعة من رعايا إحدى كنائس أصحاب البشرة السمراء في الولايات المتحدة في عام 2015. وتوجد صورة لروف على قنوات وسائل التواصل الاجتماعي الخاصة به يظهر فيها وهو يرتدي سترة عليها رقعة علم حقبة الفصل العنصري (PC-30769).

إلا أنه وعلى الرغم ذلك، تؤكد أقلية من أعضاء المجلس على أن Meta لكونها جهة خاصة فاعلة، فإنه يحق لها إزالة الخطاب الذي يحض على الكراهية الذي لا يستوفي حد التحريض على العنف أو التمييز الوشيك، حيثما يستوفي ذلك متطلبات المادة 19(3) من العهد الدولي الخاص بالحقوق المدنية والسياسية المتمثلة في الضرورة والتناسب (التقرير A/HRC/38/35، الفقرة 28). وفي حالة الإهانات في جنوب أفريقيا، أيَّد المجلس قيام Meta بإزالة إهانة عنصرية بالاستناد بقوة إلى ما لسياق جنوب أفريقيا من خصوصيات. وترى أقلية من أعضاء المجلس في هذه الحالة أن إزالة المنشورين ضرورية ليس فقط لمنع التمييز ولكن أيضًا لضمان ألا يكون لتراكم الكراهية على المنصة تأثير مثبط على حرية التعبير للأشخاص الذين يستهدفهم الخطاب الذي يحض على الكراهية بشكل متكرر (راجع أيضًا تصوير زوارت بييت والعنف الطائفي في ولاية أوديشا الهندية والأرمن في أذربيجان وكارتون كنين). ترى أقلية من أعضاء المجلس أن العواقب المترتبة على حقوق الإنسان للمستخدمين والناشئة عن الإشراف على المحتوى (وعلى وجه التحديد، إزالة الخطاب وحدود الميزات أو التعليق للانتهاكات المتكررة) تختلف اختلافًا كبيرًا عن تلك الخاصة بإنفاذ قوانين الخطاب الذي يحض على الكراهية (مثل الغرامات أو السجن). لهذه الأسباب، ترى أقلية أن إزالة المنشورين وفقًا لقاعدة السلوك الذي يحض على الكراهية بشأن الإقصاء، وكذلك حظر المنظمات الخطرة والأفراد الخطرين المفروض على "التمجيد"، سيكون ضروريًا ومتناسبًا. وتشير أقلية إلى أن الإنفاذ الدقيق الذي يناسب نطاق استثناء المنظمات الخطرة والأفراد الخطرين على الخطاب الاجتماعي والسياسي ينبغي أن يضمن تجنب فرط إنفاذ هذه المجموعة من القواعد.

العناية الواجبة بحقوق الإنسان

بمقتضى مبادئ الأمم المتحدة التوجيهية بشأن الأعمال التجارية وحقوق الإنسان رقم 13 و17 (ج) و18، فإن Meta مطالَبة بالمشاركة في تدابير العناية الواجبة بحقوق الإنسان لإجراء تغييرات جوهرية على السياسة والإنفاذ، وهو ما ستفعله الشركة عادةً من خلال منتدى سياسة المنتجات الخاص بها، بما يشمل التفاعل مع أصحاب المصلحة المتضررين. يشعر المجلس بالقلق من أن تغييرات Meta التي أجرتها في 7 يناير 2025 على السياسة والإنفاذ قد تم الإعلان عنها على عجل، وهو ما يشكل خروجًا عن الإجراء الاعتيادي دون مشاركة لأي معلومات عامة حول كيف سيكون الحال تجاه أي إجراءات سابقة، إن وجد، اتخذتها الشركة للعناية الواجبة بحقوق الإنسان.

والآن وفي ظل طرح هذه التغييرات على مستوى العالم، من الأهمية بمكان أن تحرص Meta على تحديد الآثار السلبية لهذه التغييرات على حقوق الإنسان مع العمل على التخفيف من حدتها ومنعها والإعلان العلني عنها. وينبغي أن يتضمن ذلك إبراز كيف قد تتأثر المجموعات بشكل مختلف، بما في ذلك مناطق الأغلبية العالمية. وفيما يتعلق بتغييرات الإنفاذ، ينبغي أن تراعي العناية الواجبة احتمالية حدوث فرط الإنفاذ كما في حالتيّ (الدعوة إلى تظاهرة نسائية في كوبا وتغيير دلالة كلمات عربية ازدرائية إلى كلمات مقبولة) وكذلك ضعف الإنفاذ كما في حالات (إنكار محرقة اليهود (الهولوكوست) و(العنف ضد المثليين في غرب أفريقيا ومنشور باللغة البولندية يستهدف الأشخاص المتحولين جنسيًا).

يشير المجلس إلى أن العديد من هذه التغييرات يتم طرحها في جميع أنحاء العالم، ومن ذلك بلدان الأغلبية العالمية، مثل جنوب أفريقيا وغيرها التي لها سجل حديث في ارتكاب جرائم ضد الإنسانية، لا تقتصر على الفصل العنصري. ومن المهم بشكل خاص أن تضمن Meta تحديد الآثار السلبية لهذه التغييرات على حقوق الإنسان في تلك المناطق والتخفيف من حدتها ومنعها وتبريرها علنًا في أسرع وقت ممكن، بما في ذلك ما يكون من خلال التفاعل القوي مع أصحاب المصلحة المحليين. ويوضح المجلس أنه في عام 2018، استشهدت Meta بفشلها في إزالة الخطاب الذي يحض على الكراهية من فيسبوك في حالات الأزمات، مثل ميانمار كدافع لزيادة الاعتماد على الإنفاذ التلقائي. وفي أنحاء كثيرة من العالم، يكون من المحتمل بشكل أقل أن يتفاعل المستخدمون مع أدوات الإبلاغ داخل تطبيق Meta لأسباب متنوعة، مما يجعل بلاغات المستخدمين إشارة غير جديرة بالثقة إلى الأماكن حيث قد تحدث أسوأ الأضرار. لذا، من المهم للغاية أن تدرس Meta بشكل وافٍ كيف يمكن أن يصاحب آثار أي تغييرات في الاكتشاف التلقائي للمحتوى الذي يحتمل أن يكون مخالفًا، سواء بالنسبة لضعف أو فرط الإنفاذ، تأثيرات غير متساوية على الصعيد العالمي، وبخاصة في البلدان التي تشهد أزمات أو حروبًا أو جرائم وحشية حالية أو حديثة.

6. قرار مجلس الإشراف

أيَّد مجلس الإشراف القرارات التي اتخذتها شركة Meta بالإبقاء على عنصري المحتوى.

7. التوصيات

سياسة المحتوى

1. كجزء من تدابير العناية الواجبة المستمرة بحقوق الإنسان، ينبغي لشركة Meta اتخاذ كل الخطوات التالية فيما يتعلق بتحديثات 7 يناير على معيار المجتمع بشأن السلوك الذي يحض على الكراهية. أولاً، ينبغي أن تحدِّد كيف يمكن أن تؤثر تحديثات السياسة والإنفاذ سلبًا في الفئات السكانية في مناطق الأغلبية العالمية. ثانيًا، ينبغي لشركة Meta أن تتبنى تدابير لمنع هذه المخاطر و/أو التخفيف من حدتها ومراقبة مدى فعّاليتها. ثالثًا، ينبغي لشركة Meta أن توفر للمجلس تحديثًا كل ستة أشهر عما تحرزه من تقدُّم مصحوبًا بالمكتسبات مع تقديم تقارير عن ذلك لعامة الجمهور في أقرب فرصة.

سيعتبر المجلس هذه التوصية قد دخلت حيز التنفيذ عندما تقدِّم Meta إلى المجلس تحليلاً وبيانات دقيقة حول مدى فعّالية تدابير المنع أو التخفيف من الحدة لمعدل التكرار للوارد أعلاه، وكذلك عندما تعلن Meta عن ذلك علنًا.

2. لتحسين مستوى وضوح معيار المجتمع بشأن المنظمات الخطرة والأفراد الخطرين، ينبغي لشركة Meta أن تتبنى شرحًا واحدًا وواضحًا وشاملاً يوضح كيف تنطبق محظوراتها واستثناءاتها بموجب معيار المجتمع بشأن المنظمات الخطرة والأفراد الخطرين على أيديولوجيات الكراهية المصنَّفة.

سيعتبر المجلس هذه التوصية قد دخلت حيز التنفيذ عندما تتبنى Meta شرحًا واحدًا وواضحًا وشاملاً لقاعدتها واستثناءاتها فيما يتعلق بأيديولوجيات الكراهية المصنَّفة (المدرجة أسفل قسم "نقوم بإزالة").

3. لتحسين مستوى وضوح معيار المجتمع بشأن المنظمات الخطرة والأفراد الخطرين، ينبغي لشركة Meta إدراج الفصل العنصري كأيديولوجية كراهية مستقلة مصنَّفة في القواعد.

سيعتبر المجلس هذه التوصية قد دخلت حيز التنفيذ عندما تضيف Meta الفصل العنصري إلى قائمتها لأيديولوجيات الكراهية.

إنفاذ السياسات

4. لتحسين مستوى الوضوح للمراجعين بشأن معيار المجتمع بشأن المنظمات الخطرة والأفراد الخطرين، ينبغي لشركة Meta إتاحة المزيد من الأمثلة العامة إلى مراجعيها عن التمجيد والدعم والتمثيل المحظور من أيديولوجيات الكراهية، بما يشمل أمثلة لا تذكر بصورة مباشرة اسم الأيديولوجية المدرجة.

سيعتبر المجلس هذه التوصية قد دخلت حيز التنفيذ عندما تقدِّم Meta توجيهات داخلية محدَّثة إلى المجلس شاملةً المزيد من الأمثلة العامة بما يتضمن تلك التي لا تذكر بصورة مباشرة الأيديولوجية المدرجة.

*ملاحظة إجرائية:

  • يتم اتخاذ قرارات مجلس الإشراف من قِبَل لجان مكونة من خمسة أعضاء، وتتم الموافقة عليها بأغلبية أصوات المجلس بالكامل. ولا يلزم بالضرورة أن تُعبّر قرارات المجلس عن وجهات النظر لجميع الأعضاء.
  • بموجب اتفاقيته، يجوز لمجلس الإشراف مراجعة الطعون المقدمة من المستخدمين الذين قامت Meta بإزالة محتواهم، والطعون المقدمة من المستخدمين الذين أبلغوا عن محتوى قامت Meta بالإبقاء عليه، والقرارات التي أحالتها Meta إليه (المادة 2، القسم 1 من الاتفاقية). وللمجلس سلطة مُلزمة تخوله من تأييد أو إلغاء القرارات التي تتخذها Meta بشأن المحتوى (المادة 3، القسم 5 من الاتفاقية؛ المادة 4 من اتفاقية المجلس). ويحق للمجلس إصدار توصيات غير ملزِمة تكون شركة Meta ملزَمة بالرد عليها (المادة 3، القسم 4 من الاتفاقية؛ المادة 4). وعندما تلتزم Meta بتنفيذ التوصيات، يراقب المجلس هذا التنفيذ.
  • بالنسبة إلى القرار المتخذ بشأن هذه الحالة، أُجري بحث مستقل نيابةً عن المجلس. وقد تلقى المجلس مساعدة من شركة Duco Advisors، وهي شركة استشارات تركز على نقطة التقاء الجغرافيا السياسية والثقة والأمان والتكنولوجيا.

العودة إلى قرارات الحالة والآراء الاستشارية المتعلقة بالسياسة