أسقط
القصيدة الروسية
ألغى مجلس الإشراف قرار Meta الأصلي بإزالة منشور على فيسبوك يقارن الجيش الروسي في أوكرانيا بالنازيين مستشهدًا بقصيدة تنادي بقتل الفاشيين
يتوفر هذا القرار أيضًا باللغة الروسية (من خلال علامة تبويب "اللغة" التي يمكن الوصول إليها من القائمة الموجودة أعلى هذه الشاشة) واللغة اللاتفية ( هنا) واللغة الأوكرانية ( هنا).
Lai iepazītos ar lēmumu latviski, spied šeit.
Щоб прочитати це рішення українською мовою, натисніть тут.
ملخص الحالة
ألغى مجلس الإشراف قرار Meta الأصلي بإزالة منشور على فيسبوك يقارن الجيش الروسي في أوكرانيا بالنازيين مستشهدًا بقصيدة تنادي بقتل الفاشيين. وقد ألغى أيضًا ما توصلت إليه Meta من انتهاك الصورة التي تضمنها نفس المنشور والتي كانت لجثة على ما يبدو لسياسة المحتوى العنيف والصادم. وقد وضعت Meta شاشة تحذيرية على الصورة على أساس أنها انتهكت السياسة المذكورة. وتثير هذه الحالة بعض القضايا المهمة عن الإشراف على المحتوى في حالات النزاع.
حول هذه الحالة
في أبريل 2022، نشر أحد مستخدمي فيسبوك في لاتفيا صورة لما يبدو أنه جثة في أحد الشوارع ووجهها للأسفل. ولا توجد بالجثة أي جروح ظاهرة. وقد أكدت Meta للمجلس أن الشخص قد قتل بالرصاص في بوتشا بأوكرانيا.
كان النص الروسي المصاحب للصورة يقول إن الفظائع المزعومة التي ارتكبها الجنود السوفييت في ألمانيا خلال الحرب العالمية الثانية كانت مبررة على أساس أنها تمت بدافع الثأر من الجرائم التي ارتكبها جنود النازي في الاتحاد السوفييتي. ويربط النص بين الجيش النازي والجيش الروسي في أوكرانيا، قائلاً إن الجيش الروسي "became fascist" (أصبح فاشيًا).
يستشهد المنشور بالفظائع المزعومة التي ارتكبها الجيش الروسي في أوكرانيا ويقول إنه "after Bucha, Ukrainians will also want to repeat... and will be able to repeat." (بعد بوتشا، سيرغب الأوكرانيون أيضًا في تكرار... وسيستطيعون التكرار." وينتهي المنشور باقتباس من قصيدة "اقتله!" للشاعر السوفييتي قسطنطين سيمونوف، ومن بينها الأبيات التالية: kill the fascist... Kill him! Kill him! Kill! (اقتل الفاشي...اقتله! اقتله! اقتل!)
أبلغ مستخدم آخر على فيسبوك عن المنشور لتزيله Meta بداعي انتهاك معيار مجتمعها بشأن الخطاب الذي يحض على الكراهية. وبعد تحديد المجلس لهذه الحالة، وجدت Meta أنها أزالت المنشور بالخطأ وقامت باستعادته. وبعد ثلاثة أسابيع، قامت بوضع شاشة تحذيرية على الصورة بموجب سياستها بشأن المحتوى العنيف والصادم.
أهم النتائج
وجد المجلس أن إزالة المنشور ثم إضافة شاشة تحذيرية في وقت لاحق، لا تتفق مع معايير مجتمع فيسبوك، أو قيم Meta أو مسؤولياتها تجاه حقوق الإنسان.
يرى المجلس أن المنشور لم يوجه اتهامات عامة بأن "الجنود الروس نازيون"، وإنما يناقش أنهم تصرفوا مثل النازيين في وقت ومكان محددين، مستحضرًا أوجه التشابه التاريخية. وبالإضافة إلى ذلك فإن المنشور يستهدف الجنود الروس بسبب دورهم كمقاتلين وليس بسبب جنسيتهم. وفي هذا السياق، لا توفر مسؤوليات Meta تجاه حقوق الإنسان ولا معيار مجتمعها بشأن الخطاب الذي يحض على الكراهية الحماية للجنود ضد ادعاءات ارتكابهم لاعتداءات فظيعة ولا تمنع المقارنات المثيرة التي تتم فيها مقارنة أفعالهم بأحداث وقعت في الماضي.
يؤكد المجلس على أهمية السياق عند تقييم مدى تشجيع المحتوى على ارتكاب أعمال عنف. وفي هذه الحالة، يرى المجلس أن المقتطفات المقتبسة من قصيدة "اقتله!" تعتبر إشارة إلى عمل فني وثقافي تم توظيفها كأداة بلاغية. وعند النظر إليها في سياق المنشور بأكمله، يرى المجلس أن المقتطفات مستخدمة لوصف حالة ذهنية وليس التشجيع عليها. فهي تحذر من دوائر العنف واحتمال أن يعيد التاريخ نفسه في أوكرانيا.
توضح إرشادات Meta الداخلية للمشرفين أن الشركة تفسر معيار مجتمعها بشأن العنف والتحريض على نحو يسمح بمثل هذه "الإشارة (الإشارات) الحيادية إلى نتيجة محتملة" و "التحذير (التحذيرات) الاستشارية". ومع ذلك، لم يتم توضيح ذلك في معايير المجتمع المعلنة لعامة الجمهور. وبالمثل، تحظر سياسة المحتوى العنيف والصادم الصور التي تعكس حالة وفاة بسبب أعمال عنف. وتصف الإرشادات الداخلية للمشرفين كيف تحدد Meta ما إذا كانت الوفاة تبدو ناجمة عن أعمال عنف، غير أن هذه المعلومات لم ترد في السياسة المعلنة لعامة الجمهور.
في هذه الحالة، يرى غالبية أعضاء المجلس أن الصورة الواردة في المنشور لم تتضمن مؤشرات واضحة على العنف على نحو يبرر استخدام شاشة تحذيرية وفقًا للإرشادات الداخلية التي توفرها Meta لمشرفيها.
بوجه عام، يرى المجلس أن هذا المنشور لا يرجَّح أن يؤدي إلى تفاقم العنف. ومع هذا، يشير المجلس إلى وجود تعقيدات إضافية تكتنف تقييم الخطاب الذي ينطوي على عنف في حالات النزاع الدولي حيث يسمح القانون الدولي باستهداف المقاتلين. ومن المعترف به دوليًا أن الغزو الروسي لأوكرانيا غير مشروع. ويحث المجلس Meta على مراجعة سياساتها لتأخذ في الاعتبار حالات التدخل العسكري غير المشروع.
قرار مجلس الإشراف
ألغى مجلس الإشراف قرار Meta الأصلي بإزالة المنشور وما أعقب ذلك من اعتبار المنشور انتهاكًا لسياسية المحتوى العنيف والصادم، مما دفع Meta إلى وضع شاشة تحذيرية عليه.
وأوصى المجلس Meta بما يلي:
- تعديل معيار مجتمعها المعلن بشأن العنف والتحريض ليوضح، بحسب تفسير Meta للسياسة، أنه يسمح بالمحتوى الذي يتضمن "إشارات حيادية إلى نتيجة محتملة."
- تضمين تفسير للآلية التي يتحدد من خلالها انطواء الصورة على "وفاة الشخص بسبب أعمال عنف" في معيار المجتمع المعلن بشأن المحتوى العنيف والصادم.
- تقييم جدوى استحداث أدوات تتيح للمستخدمين البالغين إبداء مدى رغبتهم في مشاهدة المحتوى الصادم من عدمه، وتتيح لهم إذا رغبوا في مشاهدته الاختيار بين مشاهدته بشاشة تحذيرية أو دون شاشة تحذيرية.
* توفر ملخصات الحالة نظرة عامة على الحالة ولا تُشكّل سابقة قانونية.
القرار الكامل للمجلس بشأن الحالة
1. ملخص القرار
قرر مجلس الإشراف إلغاء قرار Meta الأصلي بإزالة منشور على فيسبوك يتناول النزاع الدائر في أوكرانيا. وقد تضمن المحتوى، الذي نُشر باللغة الروسية في لاتفيا، نصًا وصورة فوتوغرافية لأحد الشوارع يظهر بها شخص راقد على الأرض ويرجّح أنه فارق الحياة. وقد تضمن النص اقتباسًا من قصيدة شهيرة للشاعر السوفييتي قسطنطين سيمونوف يدعو فيه إلى مقاومة الغزاة الألمان خلال الحرب العالمية الثانية، ويوحي ضمنيًا بأن الغزاة الروس يلعبون في أوكرانيا نفس الدور الذي لعبه الجنود الألمان في الاتحاد السوفييتي. وبعد أن حدد المجلس هذا المنشور لمراجعته، غيرت Meta موقفها وأعادت المحتوى إلى المنصة. ويثير المحتوى أسئلة تعريفية مهمة بموجب سياسة Meta بشأن الخطاب الذي يحض على الكراهية وسياساتها بشأن العنف والتحريض. وبعد عدة أسابيع من صدور قرار إعادة المنشور، أضافت Meta شاشة تحذيرية إلى الصورة. ويرى غالبية أعضاء المجلس أن الصورة الفوتوغرافية لم تخالف سياسة المحتوى العنيف والصادم، لأنها تفتقر إلى مؤشرات مرئية واضحة تدل على وجود عنف، كما ورد في إرشادات Meta الداخلية للمشرفين على المحتوى، والتي إن وجدت كانت ستبرر استخدام الشاشة التحذيرية.
2. وصف الحالة ومعلومات أساسية عنها
في أبريل 2022، نشر أحد مستخدمي فيسبوك في لاتفيا صورة ونصًا باللغة الروسية في آخر الأخبار لديه. وقد حظي المنشور بنحو 20000 مشاهدة، ونحو 100 مشاركة، وما يقرب من 600 تفاعل وأكثر من 100 تعليق.
ويظهر في الصورة منظر للشارع وشخص راقد على الأرض، يرجّح أنه فارق الحياة، وبجواره دراجة ملقاة على الأرض. ولا توجد بالجثة أي جروح ظاهرة. يبدأ النص بعبارة "they wanted to repeat and repeated" (لقد أرادوا التكرار وتحقق لهم ذلك). ويعلق المنشور على الجرائم المزعومة التي ارتكبها الجنود السوفييت في ألمانيا خلال الحرب العالمية الثانية. ويقول إن تلك الجرائم ارتكبها الجنود بدافع الثأر من الجرائم المرعبة التي ارتكبها النازيون بحق الاتحاد السوفيتي. ثم يربط بين الحرب العالمية الثانية وغزو أوكرانيا، قائلاً إن الجيش الروسي "became fascist" (أصبح فاشيًا). وقد ورد في النص أن الجيش الروسي في أوكرانيا "rape[s] girls, wound[s] their fathers, torture[s] and kill[s] peaceful people" (يغتصب الفتيات، ويذبح آبائهن، ويعذب ويقتل الأشخاص المسالمين). واختتم المنشور قائلاً "after Bucha, Ukrainians will also want to repeat ... and will be able to repeat" (بعد بوتشا، سيرغب الأوكرانيون أيضًا في تكرار... وسيتمكنون من تكرار) تلك الأفعال. وفي نهاية المنشور، يشارك المستخدم مقتطفات من قصيدة "اقتله!" للشاعر السوفيتي قسطنطين سيمونوف، ومن ضمنها الأبيات التالية: "kill the fascist so he will lie on the ground’s backbone, not you" (اقتل الفاشي حتى يرقد مستلقيًا على الأرض، وليس أنت)، و"kill at least one of them as soon as you can" (اقتل واحدًا منهم على الأقل بأسرع ما يمكن)، و "Kill him! (اقتله!) Kill him! (اقتله!) Kill!" (اقتل!)
وفي ذات اليوم الذي نُشر فيه المحتوى، أبلغ مستخدم آخر عن المحتوى بأنه "محتوى عنيف وصادم". وبناءً على قرار مراجع بشري، أزالت Meta المحتوى لانتهاكه معيار مجتمعها بشأن الخطاب الذي يحض على الكراهية. وبعد ساعات، قدم المستخدم الذي نشر المحتوى طعنًا، وأسفر تقييم مراجع ثانٍ عن أن المحتوى ينتهك السياسة ذاتها.
عندها قدم المستخدم طعنًا إلى مجلس الإشراف. ونتيجة لاختيار المجلس الطعن لمراجعته في 31 مايو 2022، قررت Meta أن قرارها السابق بإزالة المحتوى كان خاطئًا؛ ومن ثمَّ استعادت المحتوى. وفي 23 يونيو 2022، بعد 23 يومًا من استعادة المحتوى، أضافت Meta شاشة تحذيرية إلى الصورة الموجودة في المنشور بموجب معيار مجتمعها بشأن المحتوى العنيف والصادم، بداعي عرض حالة وفاة لأحد الأشخاص نتيجة أعمال عنف. تحمل الشاشة التحذيرية عبارة "محتوى حساس - ربما تعرض هذه الصورة محتوى صادمًا أو عنيفًا،" وتمنح المستخدم خيارين: "تعرف على المزيد" و"عرض الصورة".
ترتبط الحقائق الأساسية التالية بقرار المجلس وتستند إلى البحث الذي أجراه المجلس:
- أقرت الجمعية العامة للأمم المتحدة في 2 مارس 2022 بأن الغزو الروسي لأوكرانيا غير مشروع ( A/RES/ES-11/1).
- ميشيل باشيليت، مفوضة الأمم المتحدة السامية لحقوق الإنسان، عبّرت عن قلقها بشأن وجود "أسئلة خطيرة ومقلقة عن احتمال حدوث جرائم حرب وانتهاكات جسيمة للقانون الإنساني الدولي وانتهاكات جسيمة للقانون الدولي لحقوق الإنسان" في أوكرانيا.
- في ثقافات ما بعد الاتحاد السوفيتي، غالبًا ما يشير مصطلح "فاشي" إلى النازيين الألمان، خاصة في سياق الحرب العالمية الثانية. ومع هذا، لم يعد تعريف مصطلح "فاشي" يرتبط مباشرةً بالنازيين الألمان. في روسيا وأوكرانيا، أصبح معنى مصطلح "فاشي" غير واضح نتيجة للمناقشات السياسية التي يُستخدم فيها المصطلح لوصم الخِصم في أجزاء مختلفة من الساحة السياسية.
- "They wanted to repeat and repeated" (لقد أرادوا التكرار وتحقق لهم ذلك)، تمثل أول جملة من منشور المستخدم إشارة إلى الشعار الروسي الشهير "[w]e can repeat" (يمكننا التكرار)، والذي يستخدمه البعض للإشارة إلى انتصار السوفييت على النازيين خلال الحرب العالمية الثانية. يلمّح المستخدم كذلك إلى هذا الشعار عندما قال إنه "after Bucha, Ukrainians will also want to repeat... and will be able to repeat" (بعد بوتشا، سيرغب الأوكرانيون أيضًا في تكرار... وسيتمكنون من تكرار) أفعال الجيش الروسي.
3. سُلطة ونطاق مجلس الإشراف
يتمتع المجلس بسلطة مراجعة قرار شركة Meta بعد تلقي طعن من المستخدم الذي تعرض المحتوى الخاص به إلى الإزالة (المادة 2، القسم 1 من اتفاقية المجلس؛ المادة 3، القسم 1 من اللائحة الداخلية). يجوز للمجلس تأييد قرار شركة Meta أو إلغائه (المادة 3، القسم 5 من اتفاقية المجلس)، ويكون قراره بهذا الشأن ملزمًا للشركة (المادة 4 من اتفاقية المجلس). يجب على شركة Meta أيضًا تقييم جدوى تطبيق قرارها على أي محتوى مماثل له سياق موازٍ (المادة 4 من اتفاقية المجلس). وقد تتضمن قرارات المجلس بيانات استشارية بشأن السياسية تضم توصيات غير ملزمة يجب على شركة Meta الرد عليها (اتفاقية المجلس، المادة 3، القسم 4؛ المادة 4).
عندما يحدد المجلس حالات كهذه الحالة التي أقرت فيها شركة Meta بوقوع خطأ، يراجع المجلس القرار الأصلي للمساعدة على تعزيز فهم أسباب وقوع الأخطاء، وتقديم ملاحظات أو توصيات تسهم في التقليل من الأخطاء وتحسين الإجراءات التي تتسم بالعدالة والشفافية.
4. مصادر السُلطة
أخذ مجلس الإشراف السلطات والمعايير التالية في الاعتبار:
1. قرارات مجلس الإشراف:
تتضمن قرارات مجلس الإشراف السابقة الأكثر ارتباطًا بهذه الحالة ما يلي:
- "مكتب تيجراي لشؤون الاتصالات الحالة (2022-006-FB-MR). في هذه الحالة، أيد المجلس قرار Meta بإزالة المحتوى بعد أن خلُص إلى أنه بالنظر إلى الملف الشخصي للمستخدم (وزارة حكومية إقليمية)، فإن اللغة المستخدمة (دعوة صريحة لقتل الجنود الذين لا يستسلمون) ومعدلات وصول الصفحة (نحو 260 ألف متابع)، كان هناك خطرًا كبيرًا من أن يؤدي المنشور إلى ارتكاب المزيد من أعمال العنف.
- "فيديو صادم حول السوادان" الحالة ( 2022-002-FB-MR). في هذه الحالة، أوصى المجلس شركة Meta بما يلي: (1) تعديل معيار المجتمع بشأن المحتوى العنيف والصادم للسماح بمقاطع الفيديو التي يظهر بها أشخاص أو جثث عند مشاركتها لأغراض تعزيز الوعي بانتهاكات حقوق الإنسان أو توثيقها و(2) إجراء عملية تطوير للسياسة يتم بموجبها تطوير المعايير التي تحدد مقاطع الفيديو التي يظهر بها أشخاص أو جثث عند مشاركتها لأغراض تعزيز الوعي بانتهاكات حقوق الإنسان أو توثيقها.
2. سياسات المحتوى لدى Meta:
بموجب معيار المجتمع بشأن الخطاب الذي يحض على الكراهية، لا تسمح Meta بالخطاب الذي "ينطوي على عنف" أو "يجرد الأشخاص من إنسانيتهم" عند توجيهه إلى أشخاص أو مجموعات على أساس سماتهم التي تتمتع بحقوق حماية. تنص السياسة على أن "الخطاب الذي يجرد الأشخاص من إنسانيتهم" يتضمن "مقارنات أو تعميمات أو عبارات سلوكية غير متحفظة تصف أو تقارن الأشخاص... بمرتكبي جرائم العنف أو الجرائم الجنسية." لا تنطبق السياسة بشكل صريح على العبارات السلوكية المتحفظة. لا تتمتع المجموعات الموصوفة بأنها "ارتكبت جرائم عنف أو اعتداءات جنسية" بحماية ضد الهجمات بموجب سياسة الخطاب الذي يحض على الكراهية.
بموجب معيار المجتمع بشأن العنف والتحريض، لا تسمح Meta "بالتهديدات التي قد تتسبب في التعرض للموت (والأشكال الأخرى من أعمال العنف شديدة الخطورة) حيث يتم تعريف "التهديد" بأنه، ضمن أمور أخرى، عبارة عن "دعوات لارتكاب أعمال عنف شديدة الخطورة" و"عبارات تؤيد ارتكاب أعمال عنف شديدة الخطورة". توضح الإرشادات الداخلية التي توفرها Meta لمراجعي المحتوى أن الشركة تفسر هذه السياسة باعتبار أنها تسمح بالمحتوى الذي يتضمن عبارات تنطوي على "إشارة حيادية إلى نتيجة محتملة لإجراء أو تحذير استشاري."
بموجب معيار المجتمع بشأن المحتوى العنيف والصادم، يتم تغطية أي "صور تعرض مشاهد صادمة لموت شخص أو مجموعة أشخاص في حادث أو جريمة قتل" بشاشة تحذيرية.
3. قيم شركة Meta:
وصفت Meta قيم فيسبوك المتمثلة في "حرية الرأي" و"الكرامة" و"السلامة"، على سبيل المثال لا الحصر، في مقدمة معايير المجتمع. سيشير هذا القرار إلى هذه القيم حسب وفي حالة صلتها بالقرار.
4. المعايير الدولية لحقوق الإنسان:
تُرسي مبادئ الأمم المتحدة التوجيهية بشأن الأعمال التجارية وحقوق الإنسان (UNGP)، التي أقرها مجلس حقوق الإنسان التابع للأمم المتحدة عام 2011، إطار عمل تطوعي لمسؤوليات الأنشطة التجارية الخاصة فيما يتعلق بحقوق الإنسان. في عام 2021، أعلنت شركة Meta عن سياسة حقوق الإنسان الخاصة بالشركة، والتي أعادت التأكيد من خلالها على الالتزام باحترام حقوق الإنسان على نحو يتفق مع مبادئ الأمم المتحدة التوجيهية بشأن الأعمال التجارية وحقوق الإنسان. وقد استند تحليل المجلس لمسؤوليات شركة Meta تجاه حقوق الإنسان في هذه الحالة إلى معايير حقوق الإنسان التالية:
- حقوق حرية الرأي والتعبير: المادة 19 من العهد الدولي الخاص بالحقوق المدنية والسياسية (ICCPR)، التعليق العام رقم 34، لجنة حقوق الإنسان (2011)؛ تقارير مقرر الأمم المتحدة الخاص المعني بحرية الرأي والتعبير: A/HRC/38/35 (2018)، وA/74/486 (2019) وA/HRC/44/49/Add.2 (2020)؛ مفوض الأمم المتحدة السامي لحقوق الإنسان، تقرير: A/HRC/22/17/Add.4 (2013).
- المساواة وعدم التمييز: المادة 2، الفقرة 1، العهد الدولي الخاص بالحقوق المدنية والسياسية.
- الحق في الأمان البدني: المادة 9، العهد الدولي الخاص بالحقوق المدنية والسياسية.
- الحق في الحياة: المادة 6، العهد الدولي الخاص بالحقوق المدنية والسياسية.
5. المعلومات المقدَّمة من المستخدمين
ذكر المستخدم في الطعن الذي قدمه إلى المجلس أن الصورة التي شاركها هي "most innocuous" (أكثر الصور مراعاة للمشاعر) ضمن الصور التي توثق "crimes of the Russian army in the city of Bucha" (جرائم الجيش الروسي في مدينة بوتشا)، "where dozens of dead civilians lie on the streets" (حيث اكتظت الشوارع بجثث القتلى من المدنيين). ويقول المستخدم إن منشوره لا يدعو إلى العنف بل يصور "past history and the present" (التاريخ الماضي والحاضر). وقال إن القصيدة كانت ترمي في الأصل إلى تصوير "struggle of Soviet soldiers against the Nazis" (كفاح الجنود السوفييت ضد النازيين)، وأنه نشرها لتصوير كيف "the Russian army became an analogue of the fascist army" (أصبح الجيش الروسي نظيرًا للجيش الفاشي). كما ذكر في طعنه أنه صحفي ويعتقد أنه من المهم أن يفهم الأشخاص ما يحدث من حولهم، لا سيما في زمن الحرب.
6. المعلومات المقدَّمة من Meta
في الحيثيات التي قدمتها Meta إلى المجلس، حللت الشركة محتوى هذه الحالة في ضوء ثلاث سياسات مختلفة، بداية من الخطاب الذي يحض على الكراهية. ركزت شركة Meta على السبب الذي دفعها إلى تغيير قرارها الأصلي، بدلاً من تفسير الحيثيات التي اعتمدت عليها في اتخاذ القرار الأصلي هذا. وفقًا لشركة Meta، فإن ادعاء ارتكاب الجنود الروس جرائم في سياق الصراع الروسي الأوكراني لا يشكّل هجومًا بموجب سياسة الخطاب الذي يحض على الكراهية لأن "العبارات السلوكية المتحفظة" مسموح بها على المنصة. وقد أوضحت Meta أيضًا أن الفاشية عبارة عن أيديولوجية سياسية، وأن مجرد ربط الجيش الروسي بأيديولوجية سياسية معينة لا يشكِّل هجومًا لأن "الجيش الروسي مؤسسة وبالتالي فهو عبارة عن فئة أو مجموعة فرعية ليس لها سمات تتمتع بحقوق حماية تغطيها سياسة الخطاب الذي يحض على الكراهية (مقارنة بالجنود الروس، الذين هم عبارة عن أشخاص)." أخيرًا، أشارت Meta إلى أن المقتطفات المختلفة المقتبسة من قصيدة "اقتله!" والتي وردت في نص المنشور (على سبيل المثال، "kill a fascist," "kill at least one of them," "kill him!" ("اقتل الفاشي"، "اقتل واحدًا منهم على الأقل"، "اقتله!") تشير إلى "النازيين" في سياق الحرب العالمية الثانية، والنازيون ليسوا فئة محمية.
حللت Meta أيضًا المنشور في ضوء سياساتها بشأن العنف والتحريض. وفي هذا الصدد، أوضحت Meta أن ذِكر "Ukrainians will also want to repeat… and will be able to repeat" (سيرغب الأوكرانيون أيضًا في تكرار... وسيتمكنون من تكرار) بعد الأحداث التي شهدتها بوتشا لا يعتبر تأييدًا أو دعوة للعنف. زعمت Meta أن ذلك يمثل "إشارة حيادية إلى نتيجة محتملة،" وهو ما تسمح به الشركة بموجب سياستها بشأن العنف والتحريض. ذكرت Meta أيضًا أن إيراد مقتطفات من قصيدة سيمونوف كان بمثابة وسيلة لتعزيز الوعي باحتمال أن يعيد التاريخ نفسه في أوكرانيا. أخيرًا، أوضحت الشركة أن الدعوة إلى العنف ضد الأفراد المشمولين في سياسة الأفراد الخطرين والمنظمات الخطرة، مثل النازيين (يشار إليهم باسم "الفاشيين" في قصيدة سيمونوف)، مسموح به بموجب معيار المجتمع بشأن العنف والتحريض.
أوضحت Meta بعد ذلك أنه تم وضع شاشة تحذيرية وتقييد ظهور المنشور لمن يبلغون السن المناسب بموجب سياستها بشأن المحتوى العنيف والصادم لأن الصورة المضمنة في المحتوى تعرض وفاة شخص بسبب أعمال عنف. وأكدت Meta أن الصورة تعرض شخصًا لقي مصرعه رميًا بالرصاص في بوتشا بأوكرانيا.
في ردها على أسئلة المجلس، أوردت Meta تفسيرًا إضافيًا عن المبادرات التي طورتها في سياق النزاع الدائر في أوكرانيا. ومع هذا، فقد أكدت Meta على أن هذه المبادرات لم تكن ترتبط بإزالة المحتوى أول مرة في هذا الحالة أو بقرار إعادته مع وضع شاشة تحذيرية. وأضافت الشركة أنها اتخذت عدة خطوات تتفق مع مبادئ الأمم المتحدة التوجيهية بشأن الأعمال التجارية وحقوق الإنسان لضمان تحقق العناية الواجبة في أوقات النزاع. تضمنت هذه الخطوات التفاعل مع المجتمع المدني الأوكراني والروسي، ووسائل الإعلام الروسية المستقلة، للحصول على ملاحظات عن تأثير التدابير التي اتخذتها Meta عند اندلاع النزاع.
تلقت Meta من المجلس 11 سؤالاً أجابت عنهم بالكامل.
7. التعليقات العامة
تلقى مجلس الإشراف ثمانية تعليقات عامة ذا صلة بهذه الحالة. تم تقديم ثلاثة تعليقات من أوروبا، وأربعة من الولايات المتحدة وكندا، وتعليق من أمريكا اللاتينية ومنطقة الكاريبي. تناولت التعليقات المقدمة الموضوعات التالية: النزاع الدولي المسلح، وأهمية السياق في الإشراف على المحتوى، ودور الصحفيين في حالات النزاع، وتوثيق جرائم الحرب، والتعبير الفني.
لقراءة التعليقات العامة المقدمة في هذه الحالة، يرجى النقر هنا.
8. تحليل مجلس الإشراف
فحص المجلس في البداية مدى السماح بالمحتوى بموجب سياسات المحتوى التي تقرها Meta، والتي يتم تفسيرها عند الضرورة في ضوء قيم المنصة، ثم قيَّم مدى انسجام طريقة التعامل مع المحتوى مع مسؤوليات الشركة تجاه حقوق الإنسان.
حدد المجلس هذه الحالة لأن إزالة المنشور قد أثارت مخاوف مهمة عن التعبير الفني والإشارات الثقافية المُعاد توظيفها في سياقات جديدة يحتمل أن تتسبب في مخاطر التحريض على العنف في حالات النزاع. تحظى المساحات التي يمكن من خلالها التعبير عن الرأي على الإنترنت بأهمية كبيرة للأشخاص المتأثرين بالحرب ويجب على شركات وسائل التواصل الاجتماعي أن تولي عناية خاصة لحماية حقوقهم. توضح هذه الحالة كيف أن الافتقار إلى التحليل السياقي، وهو أمر شائع لا سيّما عند الإشراف على المحتوى على نطاق واسع، قد يمنع المستخدمين من التعبير عن آرائهم بشأن النزاع، وإجراء مقارنات تاريخية مثيرة.
8.1 الامتثال لسياسات المحتوى لدى شركة Meta
يرى المجلس أن المحتوى في هذه الحالة لا ينتهك معايير المجتمع بشأن الخطاب الذي يحض على الكراهية أو العنف والتحريض. ويرى غالبية أعضاء المجلس أن المحتوى لا ينتهك معيار المجتمع بشأن المحتوى العنيف والصادم.
1. الخطاب الذي يحض على الكراهية
تحظر سياسة Meta بشأن الخطاب الذي يحض على الكراهية الهجوم على الأشخاص على أساس سمات تتمتع بحقوق حماية، بما في ذلك الجنسية. وتحظى المِهن "ببعض الحماية" عند الإشارة إليها مع سمة تتمتع بحقوق حماية. وتوضح الإرشادات الداخلية التي توفرها الشركة للمشرفين بشكل أكبر أن "الفئات الفرعية شبه المحمية" بما في ذلك الفئات الموصوفة بسمة تتمتع بحقوق حماية بالإضافة إلى مهنة (على سبيل المثال، الجنود الروس) تتمتع بوجه عام بحقوق حماية ضد الهجمات التي تستخدم الخطاب الذي يحض على الكراهية من الطبقة الأولى. وتتضمن هذه الهجمات، على سبيل المثال لا الحصر، "الخطاب الذي ينطوي على عنف" و"الخطاب الذي يجرد الأشخاص من إنسانيتهم... في صورة مقارنات أو تعميمات أو عبارات سلوكية غير متحفظة تصف أو تقارن الأشخاص... بمرتكبي جرائم العنف أو الجرائم الجنسية." لا توفر سياسة Meta بشأن الخطاب الذي يحض على الكراهية حماية "للفئات الموصوفة بأنها ارتكبت جرائم عنف أو اعتداءات جنسية".
إن الادعاءات العامة بميل الجنود الروس إلى ارتكاب الجرائم قد تعتبر، تبعًا للمحتوى والسياق، انتهاكًا لسياسة Meta بشأن الخطاب الذي يحض على الكراهية. فقد تخضع هذه الادعاءات للحظر المفروض على "الخطاب الذي يجرد الأشخاص من إنسانيتهم" بموجب السياسة، وذلك في صورة "عبارات سلوكية غير متحفظة". تميز سياسة Meta بين: (1) نعت فئة معينة بشخصية سيئة أو سمات غير مرغوبة على أساس العرق أو الأصل القومي أو أي سمة أخرى تتمتع بحقوق حماية (وهو ما تقصده Meta بمصطلح "التعميمات")، و(2) انتقاد أعضاء فئة معينة دون سياق (وهو ما تقصده Meta بمصطلح "عبارات سلوكية غير متحفظة")، و(3) انتقاد أعضاء فئة معينة بسبب سلوكهم السابق (وهو ما تقصده Meta بمصطلح "عبارات سلوكية متحفظة"). وفي هذه الحالة، فإن الادعاءات بشأن الجنود الروس الغزاة قد تمت في سياق ما يفعلونه في النزاع الأوكراني، وليس بصفة عامة.
السؤال هنا، هل تمثل مقارنة المستخدم للجنود الروس بالفاشيين الألمان في حقبة الحرب العالمية الثانية، وتأكيده على أنهم اغتصبوا النساء وقتلوا آبائهن وقتلوا وعذبوا الأبرياء، تشكل انتهاكًا لسياسة Meta بشأن الخطاب الذي يحض على الكراهية؟ خلُصت شركة Meta والمجلس إلى أن المنشور لا يشكّل خطابًا ينطوي على عنف أو تجريد الأشخاص من إنسانيتهم بموجب سياسة الخطاب الذي يحض على الكراهية، وإن اختلفت الأسباب. ويعتبر هذا هو الجزء الوحيد من سياسة الخطاب الذي يحض على الكراهية الذي تحدد أنه يرتبط بهذا المنشور.
تقول Meta إن المنشور غير مخالف لأن العبارات التي تنطوي على اتهامات موجهة إلى الجيش الروسي، وهو مؤسسة، وليست موجهة إلى الجنود الروس، وهم أشخاص. يرى المجلس أن هذا التمييز لا ينطبق في هذه الحالة، لأن المستخدم يشير إلى "الجيش" و"الجنود" بشكل متبادل.
مع هذا، يرى المجلس أن اتهام المجلس للجنود الروس بارتكاب جرائم مماثلة للتك التي ارتكبها النازيون في سياق الغزو الروسي لأوكرانيا مسموح به. ويرجع ذلك إلى أن إسناد أفعال معينة (على سبيل المثال، "they began to really take revenge – rape girls, cut their fathers, torture and kill peaceful people of peaceful outskirts Kyiv" (لقد بدأوا الانتقام بالفعل - اغتصاب الفتيات وذبح آبائهن، وتعذيب وقتل الأشخاص المسالمين في ضواحي كييف المسالمة) ومقارنة أفعال الجنود الروس في أوكرانيا بأفعال الجيوش الأخرى المعروف أنها ارتكبت جرائم حرب (على سبيل المثال، "the Russian army, after 70 years, completely repeated itself in Germany and the German [army] in Ukraine" (الجيش الروسي، بعد 70 عامًا، كرر في أوكرانيا ما فعله تمامًا في ألمانيا و[الجيش] الألماني) يمثل عبارات "متحفظة" تتعلق بسلوك لوحظ خلال نزاع معين.
وجد المجلس بناءً على ذلك أن مقارنة أفعال الجنود الروس في سياق محدد بجرائم النازيين هو أمر مسموح به بموجب معايير المجتمع، بغض النظر عن عدم السماح بإجراء مقارنة عامة مع النازيين. ووفقًا للإرشادات الداخلية لشركة Meta، لا تنتهك المواد التي قد تشكل بطريقة أخرى خطابًا يحض على الكراهية السياسة إذا كانت موجهة إلى المجموعات "الموصوفة بأنها ارتكبت جرائم عنف أو اعتداءات جنسية." وبشكل أعم، لا يعتبر الإبلاغ عن حالات انتهاك حقوق الإنسان في سياق معين مخالفة لسياسة الخطاب الذي يحض على الكراهية، حتى في حالة الإشارة إلى هؤلاء الأشخاص بأصلهم القومي.
يرى المجلس أيضًا أن المقتطفات المختلفة المقتبسة من قصيدة "اقتله!" والواردة في المحتوى (على سبيل المثال، "kill a fascist," "kill at least one of them," "kill him!" ("اقتل الفاشي"، "اقتل واحدًا منهم على الأقل"، "اقتله!") يجب ألا تعتبر "خطابًا ينطوي على عنف" لأنه عند قراءتها معًا مع باقي المنشور، يدرك المجلس أن المستخدم يدق ناقوس الخطر بشأن دائرة العنف، ولا يحض عليه.
أخيرًا، خلُص المجلس إلى أن استهداف الجنود الروس في المنشور كان بسبب دورهم كمقاتلين، وليس بسبب جنسيتهم. ولم تكن الادعاءات عبارة عن هجمات موجهة إلى فئات "على أساس" سمة تتمتع بحقوق حماية. ويترتب على ذلك أن المحتوى لا يشكّل خطابًا يحض على الكراهية، نظرًا لعدم المساس بسمة تتمتع بحقوق حماية.
2. العنف والتحريض
بموجب سياسة العنف والتحريض، تزيل Meta "الدعوات لارتكاب أعمال عنف شديدة الخطورة"، و"العبارات التي تؤيد ارتكاب أعمال عنف شديدة الخطورة" و"العبارات التحريضية أو المشروطة لارتكاب أعمال عنف شديدة الخطورة"، إلى جانب أنواع أخرى من التعبير. توضح الإرشادات الداخلية التي توفرها الشركة للمشرفين بشكل أكبر أن Meta تفسر معيار المجتمع هذا باعتبار أنه يسمح بالعبارات التي تتضمن "الإشارات الحيادية إلى نتيجة محتملة لإجراء أو تحذير استشاري." علاوة على ذلك، توضح الإرشادات الداخلية أيضًا أنه مسموح بنشر "المحتوى الذي يدين التهديدات بارتكاب أعمال العنف أو يعزز الوعي بها" بموجب سياسة العنف والتحريض. ينطبق ذلك على المحتوى الذي "يسعى بوضوح إلى إخبار وتثقيف الآخرين بشأن موضوعات أو قضايا معينة؛ أو المحتوى الذي يتحدث عن تجربة المرء كهدف للتهديد أو العنف"، بما في ذلك التقارير الأكاديمية والإعلامية.
أوضحت Meta للمجلس أنها قررت استعادة هذا المحتوى لأن المنشور لم يشكل دعوة إلى العنف. تصف Meta عبارة المستخدم "Ukrainians will also want to repeat … and will be able to repeat" (سيرغب الأوكرانيون أيضًا في تكرار... وسيتمكنون من تكرار) بعد الأحداث التي شهدتها بوتشا على أنها "إشارة حيادية إلى نتيجة محتملة،" وهو ما تعتبره الشركة أمرًا مسموحًا به بموجب سياسة العنف والتحريض. تذكر Meta أيضًا أن إيراد مقتطفات من قصيدة سيمونوف كان بمثابة وسيلة لتعزيز الوعي باحتمال أن يعيد التاريخ نفسه في أوكرانيا. أخيرًا، بالإشارة إلى حقيقة أن قصيدة سيمونوف موجهة إلى الفاشيين الألمان، تشير الشركة إلى أن الدعوة إلى العنف ضد الأفراد المشمولين في سياسة الأفراد الخطرين والمنظمات الخطرة، مثل النازيين، مسموح به بموجب معيار المجتمع بشأن العنف والتحريض.
اقتنع المجلس جزئيًا بهذا المنطق. ووافق على أن عبارة "Ukrainians will also want to repeat... and will be able to repeat" (سيرغب الأوكرانيون أيضًا في تكرار... وسيتمكنون من تكرار) لا تدعو إلى العنف أو تؤيده. وعند قراءة هذا الجزء من المنشور حرفيًا، فإنه ينص فقط على أن الأوكرانيين قد يردون بعنف على تصرفات الجيش الروسي كما فعل السوفييت مع النازيين. بكلمات أخرى، فإنه يشكل "إشارة حيادية إلى نتيجة محتملة" وهو أمر يسمح به تفسير Meta لسياسة العنف والتحريض، الموضحة في الإرشادات الداخلية التي توفرها الشركة إلى مشرفي المحتوى.
يرى المجلس أيضًا أن المقتطفات التي تضمنت لغة تنطوي على عنف من قصيدة "اقتله!" والتي تم الاستشهاد بها في القسم الوارد أعلاه، قد تُحمل محمل وصف حالة ذهنية وليس التشجيع عليها. وعند قراءة هذه المقتطفات مع المنشور بالكامل، بما في ذلك الصورة الفوتوغرافية، فإنها تشكّل جزءًا من رسالة تحذير أعم من احتمال أن يعيد التاريخ نفسه في أوكرانيا. وهي إشارة فنية وثقافية تم توظيفها كأداة بلاغية بواسطة المستخدم لنقل رسالته. ولذلك، خلُص المجلس إلى أن هذا الجزء من المحتوى مسموح به أيضًا بموجب إرشادات Meta الداخلية.
ومع ذلك، فقد خلُص المجلس إلى أن Meta لم تكن واقعية عند تحليل المنشور كما لو كان مجرد دعوة للعنف ضد النازيين. يوضّح المستخدم أنه يعتبر الجنود الروس في أوكرانيا اليوم أقرب إلى الألمان خلال الحرب العالمية الثانية. وبقدر ما يمكن اعتبار المنشور، بما تضمنه من مقتطفات من قصيدة سيمونوف، بمثابة إشارة إلى جنود يرتكبون فظائع الآن ضد المدنيين، فهناك خطر أن ينظر القراء إلى هذا المنشور على أنه دعوة للعنف ضد الجنود الروس اليوم. ومع ذلك، يوافق المجلس على ما خلُصت إليه Meta من أن المنشور لا ينتهك معيار مجتمعها بشأن العنف والتحريض لأن معناه الأساسي، في هذا السياق، عبارة عن تحذير من استمرار دائرة العنف.
3. المحتوى العنيف والصادم
بموجب سياسة المحتوى العنيف والصادم، تضيف Meta علامات تحذيرية إلى المحتوى "حتى يعلم الأشخاص بالطبيعة الصادمة أو العنيفة قبل النقر عليه لرؤيته." وهو ما يحدث مع "الصور التي تعرض مشاهد صادمة لموت شخص أو مجموعة أشخاص في حادث أو جريمة قتل." وفي إرشاداتها الداخلية لمشرفي المحتوى، تصف Meta الصور الصادمة "لتداعيات الوفاة الناجمة عن أعمال عنف والتي تظهر فيها الضحية وقد فارقت الحياة أو وهي عاجزة بشكل واضح، مع وجود مؤشرات مرئية أخرى على التعرض للعنف" على أنها "مؤشرات على الوفاة بسبب أعمال عنف"، مثل "وجود دماء أو جروح على الجثة، أو دماء حول الضحية، أو انتفاخ أو تغير لون الجسم، أو جثث مستخرجة من الحطام". توضح الإرشادات الداخلية أيضًا أنه لا ينبغي أن تعتبر الجثث "التي لا تظهر عليها أي أمارات تدل على حدوث الوفاة نتيجة أعمال عنف" أو التي تفتقد "إلى مؤشر واحد على الأقل لوجود عنف" بمثابة حالة "وفاة بسبب أعمال عنف".
تُظهر الصورة المضمنة في المحتوى مشهدًا في الشارع مع شخص راقد على الأرض دون حراك. ولا توجد بالجثة أي جروح ظاهرة. وتمكنت Meta من تأكيد أن الشخص قد قتل رميًا بالرصاص في بوتشا بأوكرانيا. يلاحظ المجلس أن مشرفي المحتوى الذين يعملون على نطاق واسع قد لا يتمكنوا بالضرورة من الوصول إلى هذا النوع من المعلومات. ويرى غالبية أعضاء المجلس أنه لا يوجد انتهاك لسياسة المحتوى العنيف والصادم لأن الصورة الفوتوغرافية تفتقر إلى مؤشرات مرئية واضحة تدل على وجود عنف، كما ورد في إرشادات Meta الداخلية لمشرفي المحتوى. وبالتالي، خلُصت الغالبية إلى أن إضافة شاشة تحذيرية لم تكن ضرورية.
مع أخذ سياق النزاع المسلح الدائر في أوكرانيا في الحسبان والحطام الظاهر في الصورة، ترى أقلية من أعضاء المجلس أن المحتوى ينتهك سياسة المحتوى العنيف والصادم.
4. إجراء الإنفاذ
تم الإبلاغ عن المحتوى بواسطة أحد المستخدمين بداعي وجود محتوى عنيف وصادم لكنه أزيل بموجب سياسة الخطاب الذي يحض على الكراهية. ولم تتم استعادة المحتوى إلا بعد أن لفت المجلس انتباه Meta إليه. في إجابتها عن سؤال من المجلس، أوضحت Meta أن محتوى الحالة لم يتم تصعيده إلى خبراء السياسة أو الخبراء المعنيين بهذا الشأن لتتم مراجعته مرة أخرى. وتعني عبارة "التصعيد للمراجعة" أنه بدلاً من مراجعة القرار بواسطة المشرفين على المحتوى الذين يجرون مراجعات على نطاق واسع، يتم إرساله إلى فريق داخلي في Meta مسؤول عن السياسة ذات الصلة أو الموضوع المعني.
8.2 الامتثال لقيم شركة Meta
يرى المجلس أن إزالة المحتوى، ووضع شاشة تحذيرية فوق الصورة المضمنة به، لا تتفقان مع قيم Meta.
يشعر المجلس بالقلق تجاه وضع المدنيين الروس، والتأثيرات المحتملة للخطاب الذي ينطوي على عنف ويستهدف الروس بوجه عام. ومع هذا، يرى المجلس في هذه الحالة أن المحتوى لا خطرًا حقيقيًا على "كرامة" و"سلامة" هؤلاء الأشخاص على نحو يبرر إحلال هذه القيم محل "حرية الرأي"، لا سيّما في سياق ينبغي على Meta أن تتأكد فيه من قدرة المستخدمين المتأثرين بالحرب على مناقشة تداعياتها.
8.3 الامتثال لمسؤوليات شركة Meta تجاه حقوق الإنسان
يرى المجلس أن قرار Meta المبدئي بإزالة المحتوى وقرار Meta بوضع شاشة تحذيرية على المحتوى لا يتفقان مع مسؤوليات شركة Meta تجاه حقوق الإنسان. ألزمت شركة Meta نفسها باحترام حقوق الإنسان بموجب مبادئ الأمم المتحدة التوجيهية بشأن الأعمال التجارية وحقوق الإنسان (UNGP). وتنص سياسة حقوق الإنسان الخاصة بشركة فيسبوك على أن ذلك يتضمن العهد الدولي الخاص بالحقوق المدنية والسياسية ( ICCPR).
حرية التعبير (المادة 19 من العهد الدولي الخاص بالحقوق المدنية والسياسية)
إن نطاق الحق في حرية التعبير هو نطاق واسع. توفر المادة 19، الفقرة 2 من العهد الدولي الخاص بالحقوق المدنية والسياسية حماية أكبر لحرية التعبير، بما في ذلك التعبير الفني، فيما يتعلق بالقضايا السياسية، والتعليق على الشأن العام، ومناقشة حقوق الإنسان والادعاءات التاريخية ( التعليق العام رقم 34، الفقرتان 11 و49). حتى التعبير الذي قد يعتبر "مسيئًا للغاية" يستحق الحماية (التعليق العام رقم 34، الفقرة 11). ينطوي المحتوى الذي يحلله المجلس في هذه الحالة على لغة شديدة اللهجة. ومع ذلك، فهي ترقى إلى مستوى الخطاب السياسي وتلفت الانتباه إلى انتهاكات حقوق الإنسان في سياق الحرب.
تضمن المحتوى في هذه الحالة اقتباسات من قصيدة حربية معروفة، استعان بها المستخدم كإشارة ثقافية مثيرة لتثقيف وتحذير جمهوره من العواقب المحتملة لأفعال الجنود الروس في أوكرانيا. أكد مقرر الأمم المتحدة الخاص المعني بحرية التعبير أن التعبير الفني يتضمن "القصص الخيالية وغير الخيالية التي تهدف إلى التثقيف أو الإلهاء أو التحريض" ( A/HRC/44/49/Add.2، الفقرة 5).
تنص المادة 19 من العهد الدولي الخاص بالحقوق المدنية والسياسية على أنه عند فرض الدولة لقيود على حرية التعبير، يجب أن تفي تلك القيود بمتطلبات الشرعية والهدف المشروع والضرورة والتناسب (المادة 19، الفقرة 3، العهد الدولي الخاص بالحقوق المدنية والسياسية). شجّع مقرر الأمم المتحدة الخاص المعني بحرية التعبير شركات وسائل التواصل الاجتماعي على الاسترشاد بهذه المبادئ عند الإشراف على التعبير على الإنترنت ( A/HRC/38/35، الفقرتان 45 و70).
1. الشرعية (وضوح القواعد وسهولة الوصول إليها)
يقتضي مبدأ الشرعية أن تكون القواعد التي تستخدمها البلدان للحد من حرية التعبير واضحة ومتاحة لعامة الجمهور (التعليق العام رقم 34، الفقرة 25). وقد أشارت اللجنة المعنية بحقوق الإنسان أيضًا إلى أن القواعد "لا يجوز أن تمنح الأشخاص المسؤولين عن تنفيذ[ها] سلطة تقديرية مطلقة في تقييد حرية التعبير" (التعليق العام رقم 34، الفقرة 25). ويجب أن يكون لدى الأفراد معلومات كافية لتحديد ما إذا كان تعبيرهم مقيدًا والأسباب التي تؤدي إلى تقييده، حتى يتمكنوا من ضبط وتعديل سلوكهم وفقًا لذلك. وبتطبيق ذلك على قواعد شركة Meta بشأن المحتوى على فيسبوك، يجب أن يتمكن المستخدمون من فهم الأشياء المسموح بها والأشياء المحظورة.
هناك قسمان من إرشادات Meta الداخلية يتناولان كيفية تطبيق معيار مجتمعها بشأن العنف والتحريض على صلة وثيقة بما خلُص إليه كل من Meta والمجلس والذي يقضي بضرورة بقاء المحتوى على فيسبوك. أولاً، تفسر Meta هذه السياسة على أنها تسمح بالرسائل التي تحذر من إمكانية ارتكاب أعمال عنف من قبل جهات خارجية، في حالة كونها عبارات تتضمن "إشارة حيادية لنتيجة محتملة لإجراء أو تحذير استشاري." ثانيًا، يتم السماح بالمحتوى المخالف بطريقة أخرى في حالة "إدانة التهديدات بارتكاب أعمال عنف أو تعزيز الوعي بها". مع هذا، يلاحظ المجلس أن الإرشادات الداخلية غير متضمنة في الصيغة المعلنة للجمهور من معيار المجتمع بشأن العنف والتحريض. قد يؤدي ذلك بالمستخدمين إلى الاعتقاد بأن المحتوى من قبيل المنشور الذي بين أيدينا في هذه الحالة مخالف، في حين أنه ليس كذلك. ينبغي على Meta دمج هذه الأقسام في الصيغة المعلنة للجمهور من سياستها بشأن العنف والتحريض، حتى يتضح الأمر للمستخدمين بالقدر الكافي. يدرك المجلس أن نشر مزيد من التفاصيل بشكل علني عن سياسات المحتوى لدى Meta قد يسمح لأصحاب النوايا الخبيثة من المستخدمين بالالتفاف حول معايير المجتمع بسهولة أكبر. ومع هذا، يرى المجلس أن الحاجة إلى الوضوح والتحديد تفوق المخاوف بشأن محاولة بعض المستخدمين "خداع النظام". قد يؤدي عدم العلم بأن "الإشارات الحيادية إلى نتيجة محتملة" أو "التحذيرات الاستشارية" أو "الإدانة" أو "تعزيز الوعي" بالتهديدات بارتكاب العنف مسموح بها إلى تجنب المستخدمين بدء مناقشات تتناول الصالح العام على منصات Meta أو المشاركة فيها.
يشعر المجلس أيضًا بالقلق من أن قرار Meta في هذه الحالة بإضافة شاشة تحذيرية لا يتفق مع إرشاداتها الداخلية لمشرفي المحتوى. علاوة على ذلك، قد لا يكون تفسير Meta لسياسة المحتوى العنيف والصادم واضحًا للمستخدمين. ينبغي على Meta أن تسعى، في الصيغة المعلنة للجمهور من هذه السياسة، إلى توضيح كيفية تفسير الشركة لهذه السياسة، وآلية تحديد ما إذا كانت الصورة "تعرض مشاهد صادمة لموت شخص أو مجموعة أشخاص في حادث أو جريمة قتل"، في سياق النزاع، وفقًا لإرشادات Meta الداخلية لمشرفي المحتوى.
علاوة على ذلك، أبلغت Meta المجلس بعدم إرسال رسالة إلى المستخدم الذي أبلغ في الأصل عن المحتوى لإبلاغه باستعادة المنشور لاحقًا بواسطة الشركة. ويثير ذلك مخاوف بشأن الشرعية، حيث قد يتداخل عدم توفر المعلومات ذات الصلة للمستخدمين مع "قدرة الفرد على الاعتراض على الإجراءات الصادرة بشأن المحتوى أو متابعة الشكاوى المتعلقة بالمحتوى" ( A/HCR/38/35 الفقرة 58). يلاحظ المجلس أن إخطار مقدمي البلاغات بإجراءات الإنفاذ المتخذة ضد المحتوى الذي أبلغوا عنه، ومعيار المجتمع الذي تم اتخاذ إجراءات الإنفاذ بموجبه، سيساعد المستخدمين على فهم قواعد Meta واتباعها بشكل أفضل.
2. الهدف المشروع
يجب أن يسعى أي تقييد لحرية التعبير أيضًا إلى تحقيق "هدف مشروع". سبق للمجلس الإقرار بأن معيار المجتمع بشأن الخطاب الذي يحض على الكراهية يسعى إلى تحقيق الهدف المشروع المتمثل في حماية حقوق الآخرين (التعليق العام رقم 34، الفقرة 28)، بما في ذلك الحق في المساواة وعدم التمييز على أساس العرق والأصل القومي (المادة 2، الفقرة 1، العهد الدولي الخاص بالحقوق المدنية والسياسية). وبالتالي، فإن حماية الروس المستهدفين بالكراهية هو هدف مشروع. ومع هذا، يرى المجلس أن حماية "الجنود" من ادعاءات ارتكاب ارتكابهم لاعتداءات فظيعة ليس هدفًا مشروعًا، عندما يتم استهدافهم بسبب دورهم كمقاتلين في الحرب، وليس بسبب جنسيتهم أو أي سمة أخرى تتمتع بحقوق حماية، وأنه ينبغي عدم حظر انتقاد مؤسسات مثل الجيش (التعليق العام رقم 34، الفقرة 38).
يسعى معيار المجتمع بشأن العنف والتحريض، عند صياغته وتطبيقه بشكل صحيح، إلى تحقيق الهدف المشروع المتمثل في حماية حقوق الآخرين. وفي سياق هذه الحالة، تسعى هذه السياسة إلى منع تصاعد العنف الذي قد يؤدي إلى إلحاق الضرر بالأمان البدني (المادة 9، العهد الدولي الخاص بالحقوق المدنية والسياسية) وحياة (المادة 6، العهد الدولي الخاص بالحقوق المدنية والسياسية) الأشخاص في المناطق المتأثرة بالنزاع الروسي الأوكراني.
يلاحظ المجلس وجود تعقيدات إضافية تكتنف تقييم الخطاب الذي ينطوي على عنف في سياق المقاومة المسلحة للغزو. ومن المسلّم به دوليًا أن الغزو الروسي لأوكرانيا غير مشروع (A/RES/ES-11/1)، وأنه مسموح باستخدام القوة للدفاع عن النفس ضد هذا النوع من العدوان (المادة 51 من ميثاق الأمم المتحدة). وفي سياق النزاع الدولي المسلّح، يسمح القانون الإنساني الدولي بشأن سلوك الأطراف أثناء اندلاع الأعمال العدائية باستهداف المقاتلين النشطين بشكل مشروع في سياق النزاع المسلّح. ولا ينطبق الأمر على الأشخاص الذين توقفوا عن المشاركة بنشاط في الأعمال العدائية، بمن فيهم أسرى الحرب (المادة 3، اتفاقية جنيف المتعلقة بمعاملة أسرى الحرب). وعندما يكون العنف في حد ذاته مشروعًا بموجب القانون الدولي، فإن الخطاب الذي يحض على مثل هذا العنف يطرح اعتبارات مختلفة يجب فحصها بشكل منفصل. وعلى الرغم من أن المجلس قد وجد المحتوى في هذه الحالة غير مخالف، فإنه يحث Meta على مراجعة سياساتها لتأخذ في الاعتبار حالات التدخل العسكري غير المشروع.
بالإحالة إلى قرار الشركة بوضع شاشة تحذيرية على الصورة الفوتوغرافية، تشير Meta إلى أن سياسة المحتوى العنيف والصادم تهدف إلى تعزيز بيئة مواتية للمشاركة المتنوعة من خلال الحد من "المحتوى الذي يشيد بالعنف أو يحتفي بمعاناة الآخرين أو إذلالهم." يوافق المجلس على مشروعية هذا الهدف في سياق ما ترنو إليه Meta من توفير منصة تتسم بالشمول.
3. الضرورة والتناسب
يقتضي مبدأ الضرورة والتناسب أن تكون أي تقييدات يتم فرضها على حرية التعبير "مناسبة لتحقيق وظيفتها الحمائية، ويجب أن تكون أقل الوسائل تدخلاً مقارنة بغيرها من الوسائل التي يمكن أن تحقق النتيجة المنشودة؛ [و] يجب أن تكون متناسبة مع المصلحة التي ستحميها" (التعليق العام رقم 34، الفقرة 34).
من أجل تقييم المخاطر التي يشكلها المحتوى الذي ينطوي على عنف أو يحض على الكراهية، يسترشد المجلس عادةً باختبار العوامل الستة الموصوف في خطة عمل الرباط، والذي يتناول الدعوة إلى الكراهية القومية أو العرقية أو الدينية التي تشكل تحريضًا على العداء أو التمييز أو العنف. في هذه الحالة، يرى المجلس أنه، على الرغم من سياق النزاع المسلّح الدائر حاليًا والإشارات الثقافية المشحونة التي يتم يستعين بها المستخدم، من غير المحتمل أن يؤدي المنشور إلى حدوث ضرر، لأنه بمثابة تحذير ضد دائرة العنف. وقد خلُص المجلس إلى أن إزالة المحتوى في بادئ الأمر لم تكن ضرورية. وبالإضافة إلى ذلك، وجدت غالبية أعضاء المجلس أن الشاشة التحذيرية لم تكن ضرورية أيضًا، في حين رأت أقلية من أعضاء المجلس أنها كانت ضرورية ومتناسبة.
إن النظر إلى العوامل ذات الصلة هنا، خلُص المجلس إلى أنه على الرغم من سياق الغزو الروسي غير المشروع لأوكرانيا حيث يمكن أن يؤدي الخطاب التحريضي المحتمل إلى زيادة التوترات، والنية الواضحة للمستخدم (زيادة الوعي بشأن الحرب وعواقبها)، والأسلوب التعبيري المستخدم بالاقتباس من قصيدة حربية، وانتشار وسائل الاتصال الأخرى المتعلقة بالأحداث المروعة في أوكرانيا، فإنه من غير المحتمل أن يساهم المحتوى بشكل كبير في تفاقم العنف.
خلُصت غالبية أعضاء المجلس إلى أن استخدام شاشة تحذيرية يمنع حرية التعبير ولا يشكّل استجابة ضرورية في هذه الحالة، لأن الصورة الفوتوغرافية تفتقر إلى مؤشرات مرئية تفتقر إلى مؤشرات مرئية واضحة تدل على وجود عنف، كما ورد في إرشادات Meta الداخلية للمشرفين على المحتوى، والتي إن وجدت كانت ستبرر استخدام الشاشة التحذيرية. ينبغي على شركات وسائل التواصل الاجتماعي التفكير في نطاق الطرق الممكنة للتعامل مع المحتوى المثير للمشاكل لضمان صياغة القيود بدقة ( A/74/486، الفقرة 51). في هذا الصدد، يرى المجلس أن على Meta تطوير أدوات تخصيص أكثر حتى يتمكن المستخدمون من اتخاذ قراراتهم بشأن عرض المحتوى الحساس والصادم بشاشة تحذيرية أو دون شاشة تحذيرية على فيسبوك وInstagram.
ترى أقلية من أعضاء المجلس أن الشاشة التحذيرية كانت بمثابة إجراء ضروري ومتناسب تمت صياغته بشكل مناسب لتشجيع المشاركة وحرية التعبير. تعتقد هذه الأقلية أنه، بالنظر إلى كرامة الأشخاص المتوفين، لا سيما في سياق النزاع المسلّح، والآثار المحتملة للصور التي تُظهر الموت والعنف على عدد كبير من المستخدمين، يجوز لشركة Meta ولو بالخطأ إضافة شاشات تحذيرية إلى المحتوى المشابه للمحتوى الذي يتم تحليله في الحالة التي بين أيدينا.
9. قرار مجلس الإشراف
ألغى مجلس الإشراف قرار Meta الأصلي بإزالة المحتوى، والقرار الذي أعقبه باعتبار المحتوى مخالفًا لسياسة المحتوى العنيف والصادم، وهو ما دفع الشركة إلى وضع شاشة تحذيرية على الصورة الفوتوغرافية المتضمنة في المنشور.
10. البيان الاستشاري بشأن السياسة
سياسة المحتوى
1. يجب على Meta أن تضيف إلى الصياغة المعلنة لمعيار مجتمعها بشأن العنف والتحريض أنها تفسر السياسة باعتبار أنها تسمح "بالإشارة الحيادية إلى نتيجة محتملة لإجراء أو تحذير استشاري" وأن المحتوى الذي "يدين التهديدات بارتكاب أعمال عنف أو يعزز الوعي بشأنها". يتوقع المجلس أن هذه التوصية، حال تنفيذها، ستتطلب قيام Meta بتحديث الصياغة المعلنة للجمهور من سياسة العنف والتحريض لتعكس هذه الإضافات.
2. يجب على Meta أن تضيف إلى الصياغة المعلنة لمعيار مجتمعها بشأن المحتوى العنيف والصادم تفاصيل من إرشاداتها الداخلية بشأن كيفية تحديد الشركة ما إذا كانت الصورة "تعرض مشاهد صادمة لموت شخص أو مجموعة أشخاص في حادث أو جريمة قتل". يتوقع المجلس أن هذه التوصية، حال تنفيذها، ستتطلب قيام Meta بتحديث الصياغة المعلنة للجمهور من معيار مجتمعها بشأن المحتوى العنيف والصادم لتعكس هذه الإضافة.
الإنفاذ
3. يجب على Meta تقييم جدوى تنفيذ أدوات التخصيص التي ستتيح للمستخدمين الذين تتجاوز أعمارهم 18 عامًا تحديد مدى رغبتهم في رؤية المحتوى الحساس والصادم بشاشة تحذيرية أو بدونها، على كل من فيسبوك وInstagram. يتوقع المجلس أن هذه التوصية، حال تنفيذها، ستتطلب قيام Meta بنشر نتائج تقييم الجدوى.
*ملاحظة إجرائية:
يتم إعداد قرارات مجلس الإشراف من قِبل لجان مكونة من خمسة أعضاء ويتم اعتمادها من أغلبية أعضاء المجلس. ولا يلزم بالضرورة أن تُعبّر قرارات المجلس عن وجهات النظر الشخصية لجميع الأعضاء.
بالنسبة إلى القرار المتخذ بشأن هذه الحالة، تم إجراء بحث مستقل نيابة عن المجلس. معهد أبحاث مستقل يقع مقره في جامعة جوتنبرج ويعتمد على فريق مكون من أكثر من 50 عالم اجتماع من ست قارات، فضلاً عن أكثر من 3200 خبير محلي من جميع أنحاء العالم. وقد تلقى المجلس أيضًا مساعدة من شركة Duco Advisors، وهي شركة تركز على نقطة التقاء الجغرافيا السياسية والثقة والأمان والتكنولوجيا. وقد تم تقديم الخبرة اللغوية من شركة Lionbridge Technologies LLC، التي يتقن المتخصصون بها أكثر من 350 لغة ويعملون من 5000 مدينة حول العالم.
العودة إلى قرارات الحالة والآراء الاستشارية المتعلقة بالسياسة