أسقط
مخاوف البنجابيين تجاه منظمة راشتريا سوايامسيفاك سانغ (RSS) في الهند
ألغى مجلس الإشراف قرار فيسبوك بإزالة منشور بموجب معيار مجتمعها بشأن الأفراد الخطرين والمنظمات الخطرة.
لقراءة هذا القرار باللغة البنجابية، انقر هنا.
ਇਹ ਫ਼ੈਸਲਾ ਪੰਜਾਬੀ ਵਿੱਚ ਪੜ੍ਹਨ ਲਈ,"ਇੱਥੇ ਕਲਿੱਕ ਕਰੋ।
ملخص الحالة
ألغى مجلس الإشراف قرار فيسبوك بإزالة منشور بموجب معيار مجتمعها بشأن الأفراد الخطرين والمنظمات الخطرة. بعد تحديد المجلس هذه الحالة لمراجعتها، أعادت فيسبوك المحتوى. عبّر المجلس عن قلقه تجاه عدم مراجعة فيسبوك للطعن الذي تقدم به المستخدم ضد قرارها الأصلي. حث المجلس الشركة أيضًا على اتخاذ إجراء لتجنب حدوث الأخطاء التي تُسكت أصوات الأقليات الدينية.
حول هذه الحالة
في نوفمبر 2020، شارك أحد المستخدمين منشور فيديو من Global Punjab TV (تلفزيون البنجاب العالمي) وهي شركة إعلامية على الإنترنت تقدم المحتوى باللغة البنجابية. كان الفيديو عبارة عن مقابلة لمدة 17 دقيقة مع البروفيسور مانجيت سينغ الذي يوصف بأنه "ناشط اجتماعي وداعم للثقافة البنجابية." تضمن المنشور أيضًا شرحًا توضيحيًا يذكر المنظمة القومية الهندوسية راشتريا سوايامسيفاك سانغ (RSS) والحزب الهندي الحاكم بهاراتيا جاناتا (BJP): "منظمة راشتريا سوايامسيفاك سانغ هي التهديد الجديد. حيث يتم استخدام ترنيمة الموت Ram Naam Satya Hai. ويتجه حزب بهاراتيا جاناتا نحو تبني نهج متطرف."
في النص المصاحب للمنشور، ادعى المستخدم أن منظمة راشتريا سوايامسيفاك سانغ تهدد بقتل السيخ، وهم أقلية دينية في الهند، وتكرار "الملحمة المميتة" التي حدثت عام 1984 عندما قامت الحشود الهندوسية بقتل وإحراق الرجال والنساء والأطفال السيخ. ثم يزعم المستخدم إن رئيس الوزراء مودي نفسه هو من يصوغ تهديد "الإبادة الجماعية للسيخ" بناءً على نصيحة تلقاها من رئيس منظمة راشتريا سوايامسيفاك سانغ، موهان بهاجوات. ادعى المستخدم أيضًا أن حشود السيخ في الجيش قد حذرت رئيس الوزراء مودي من أنها على استعداد للموت لحماية المزارعين من السيخ وأراضيهم في البنجاب.
بعد إبلاغ أحد المستخدمين عن المنشور، قرر القائم على المراجعة أن المنشور قد انتهك سياسة فيسبوك بشأن الأفراد الخطرين والمنظمات الخطرة وقام بإزالة المنشور. وهو ما أسفر عن تقييد حساب المستخدم تلقائيًا. أخبرت فيسبوك المستخدم بأنها لن تتمكن من مراجعة الطعن الذي تقدم به ضد إزالة المنشور نتيجة تقليص أعداد القائمين على المراجعة مؤقتًا بسبب فيروس كورونا (كوفيد-١٩).
أهم النتائج
بعد أن حدد المجلس هذه الحالة للمراجعة، ولكن قبل تعيينها إلى إحدى لجانه، أدركت فيسبوك أن المحتوى قد أزيل عن طريق الخطأ وقامت بإعادته. لاحظت فيسبوك أنه لا يوجد من بين المجموعات أو الأشخاص الذين ورد ذكرهم في المحتوى ما يعتبر "خطرًا" بموجب قواعدها. لم تتمكن الشركة أيضًا من تحديد الكلمات المعينة في المنشور التي قادت إلى إزالته بالخطأ.
وجد المجلس أن قرار فيسبوك الأصلي بإزالة المنشور لا يتفق مع معايير المجتمع التي تتبعها الشركة أو مسؤولياتها تجاه حقوق الإنسان.
لاحظ المجلس أن المنشور قد سلط الضوء على مخاوف الأقلية والأصوات المعارضة في الهند التي يُزعم أنها تعاني من التمييز بواسطة الحكومة. من المهم بوجه خاص أن فيسبوك تتخذ خطوات لتجنب الأخطاء التي تُسكت مثل هذه الأصوات. على الرغم من إدراك الظروف الفريدة التي فرضها انتشار فيروس كورونا (كوفيد-١٩)، يرى المجلس أن فيسبوك لم تخصص ما يكفي من الوقت أو الاهتمام لمراجعة هذا المحتوى. وأكد المجلس على ضرورة تمتع المستخدمين بالقدرة على التقدم بطعن إلى فيسبوك بشأن الحالات قبل ورودها إلى المجلس وحث الشركة على إعطاء أولوية لاستعادة قدراتها التشغيلية.
مع أخذ ما سبق في الاعتبار، وجد المجلس أن القيود التي فُرضت على الحساب والتي استبعدت المستخدم من فيسبوك غير متناسبة بشكل خاص. وقد عبر المجلس أيضًا عن مخاوفه تجاه انتشار قواعد فيسبوك التي تتناول هذه القيود على مستوى العديد من المواقع وعدم وجودها بالكامل في معايير المجتمع، كما هو متوقع.
أخيرًا، لاحظ المجلس أن تقارير الشفافية في فيسبوك تجعل من الصعب تقييم ما إذا كان تطبيق سياسة الأفراد الخطرين والمنظمات الخطرة يؤثر تأثيرًا خاصًا في المتحدثين بلغة الأقلية أو الأقليات الدينية في الهند.
قرار مجلس الإشراف
ألغى مجلس الإشراف قرار فيسبوك الأصلي بإزالة المحتوى. في بيان استشاري بشأن السياسة، أوصى المجلس فيسبوك بما يلي:
- ترجمة معايير مجتمعها ومعايير التنفيذ الداخلية إلى اللغة البنجابية. يجب أيضًا أن تعمل فيسبوك على إتاحة معايير مجتمعها بكل اللغات التي يتحدث بها مستخدموها على نطاق واسع.
- استعادة كل من المراجعة البشرية لقرارات الإشراف على المحتوى والوصول إلى عمليات الطعن البشري لمستويات ما قبل الجائحة بأسرع وقت ممكن، مع حماية صحة موظفي فيسبوك ومتعهديها في الوقت ذاته.
- زيادة المعلومات العامة عن معدلات الأخطاء من خلال إتاحة إمكانية الاطلاع عليها حسب البلد واللغة لكل معيار من معايير المجتمع في تقارير الشفافية الخاصة بالشركة.
*توفر ملخصات الحالة نظرة عامة على الحالة ولا تُشكّل سابقة قانونية.
القرار الكامل للمجلس بشأن الحالة
1. ملخص القرار
ألغى مجلس الإشراف قرار فيسبوك بإزالة المحتوى. لاحظ المجلس بعد تحديد الحالة وقبل تعيينها إلى إحدى لجانه أن فيسبوك رأت أن المحتوى قد أزيل عن طريق الخطأ وقامت بإعادته. وجد المجلس أن المحتوى المعني لا يمدح أو يدعم أو يعبر عن أي أشخاص خطرين أو منظمات خطرة. سلط المنشور الضوء على سوء المعاملة المزعوم للأقليات في الهند من قبل الحكومة والجهات المؤيدة لها وكان له قيمة على مستوى المصلحة العامة. كان المجلس مهتمًا بالخطأ الذي وقع أثناء مراجعة المحتوى وعدم توفر عملية فعّالة يستطيع من خلالها المستخدم تقديم الطعون. قيدت أخطاء فيسبوك حرية التعبير لدى المستخدم وحدت من حقوق أفراد الأقليات الهندية في الوصول إلى المعلومات.
2. وصف الحالة
تطرق المحتوى إلى مزاعم التمييز ضد الأقليات وإسكات أصوات المعارضة في الهند بواسطة منظمة "راشتريا سوايامسيفاك سانغ" وحزب بهاراتيا جاناتا. منظمة راشتريا سوايامسيفاك سانغ هي منظمة قومية هندية يُزعم أنها شاركت في أعمال عنف ضد الأقليات الدينية في الهند. حزب بهاراتيا جاناتا هو الحزب الحاكم في الهند والذي ينتمي إليه رئيس الوزراء الهندي الحالي ناريندرا مودي، وله علاقات وثيقة مع منظمة راشتريا سوايامسيفاك سانغ.
في نوفمبر 2020، شارك أحد المستخدمين منشور فيديو مع نص مصاحب من Global Punjab TV (تلفزيون البنجاب العالمي) وهي شركة إعلامية على الإنترنت تقدم المحتوى باللغة البنجابية. تضمن المنشور مقابلة لمدة 17 دقيقة مع البروفيسور مانجيت سينغ، الذي يوصف بأنه "ناشط اجتماعي وداعم للثقافة البنجابية." وقد تضمن منشور Global Punjab TV شرحًا توضيحيًا يفيد بأن "منظمة راشتريا سوايامسيفاك سانغ" تمثل التهديد الجديد. حيث يتم استخدام ترنيمة الموت Ram Naam Satya Hai. ويتجه حزب بهاراتيا جاناتا نحو تبني نهج متطرف." ضمنت الشركة الإعلامية أيضًا وصفًا إضافيًا "التهديد الجديد. حيث يتم استخدام ترنيمة الموت Ram Naam Satya Hai! واتجه حزب بهاراتيا جاناتا نحو تبني نهج متطرف. فالمفكرون يتحدون مودي بشكل مباشر!" تم نشر المحتوى خلال الاحتجاجات الجماهيرية للمزارعين في الهند وقد تطرق باختصار إلى أسباب الاحتجاجات ومدحها.
وأضاف المستخدم نصًا مصاحبًا عند مشاركة منشور Global Punjab TV أشار فيه إلى قيام وكالة الاستخبارات المركزية بإدراج منظمة راشتريا سوايامسيفاك سانغ "كمنظمة إرهابية هندوسية متعصبة" وأن رئيس الوزراء الهندي ناريندرا مودي كان يتولى رئاستها ذات يوم. كتب المستخدم أن منظمة راشتريا سوايامسيفاك سانغ تهدد بقتل السيخ، وهم أقلية دينية في الهند، وتكرار "الملحمة المميتة" التي حدثت عام 1984 عندما قامت الحشود الهندوسية بمهاجمة السيخ. وأشار إلى أن "منظمة راشتريا سوايامسيفاك استخدمت ترنيمة الموت "Ram naam sat hai". يدرك المجلس أن عبارة "Ram Naam Satya Hai" هي ترنيمة جنائزية يُزعم أنها استخدمت كتهديد من قبل بعض القوميين الهندوس. ثم يزعم المستخدم إن رئيس الوزراء مودي نفسه هو من يصوغ تهديد "الإبادة الجماعية للسيخ" بناءً على نصيحة تلقاها من رئيس منظمة راشتريا سوايامسيفاك سانغ، موهان بهاجوات. وينتهي النص المصاحب بزعم أن السيخ في الهند يجب أن يكونوا في حالة تأهب قصوى وأن حشود السيخ في الجيش قد حذرت رئيس الوزراء مودي من أنها على استعداد للموت لحماية المزارعين من السيخ وأراضيهم في البنجاب.
استمر المنشور لمدة 14 يومًا وتمت مشاهدته أقل قليلاً من 500 مرة قبل الإبلاغ عنه بواسطة مستخدم آخر بدعوى "الإرهاب". رأى القائم على المراجعة البشرية أن المنشور قد انتهك معيار المجتمع الذي يتناول الأفراد الخطرين والمنظمات الخطرة وأزال المحتوى، وهو ما أسفر أيضًا عن فرض قيود تلقائية على استخدام الحساب لفترة زمنية ثابتة. في الإشعار الذي تم إرساله إلى المستخدم، أشارت فيسبوك إلى أن قرارها كان نهائيًا ولا يمكن مراجعته نتيجة التخفيض المؤقت في أعداد القائمين على المراجعة بسبب فيروس كورونا (كوفيد-١٩). لهذا السبب، تقدم المستخدم بطعن إلى مجلس الإشراف.
بعد أن حددت لجنة اختيار الحالات هذه الحالة للمراجعة، وقبل تعيينها إلى إحدى لجان المجلس، رأت فيسبوك أن المحتوى قد أزيل عن طريق الخطأ وقامت بإعادته. ومع ذلك فقد استمر المجلس في تعيين الحالة لإحدى اللجان.
3. السُلطة والنطاق
يتمتع المجلس بصلاحية مراجعة قرار فيسبوك بموجب المادة 2 (سلطة المراجعة) من اتفاقية المجلس ويجوز له تأييد هذا القرار أو إلغائه بموجب المادة 3، القسم 5 (إجراءات المراجعة: القرار، ضمن الاتفاقية). لم تقدم فيسبوك أسبابًا لاستبعاد المحتوى وفقًا للمادة 2، القسم 1.2.1 (المحتوى غير المتاح للمجلس مراجعته) من اللائحة الداخلية للمجلس، كذلك لم تشر فيسبوك إلى أنها تعتبر الحالة غير مؤهلة بموجب المادة 2، القسم 1.2.2 (الالتزامات القانونية) من اللائحة الداخلية. بموجب المادة 3، القسم 4 (إجراءات المراجعة: القرارات) من اتفاقية المجلس، قد يتضمن القرار النهائي بيانًا استشاريًا بشأن السياسة، والذي ستأخذه فيسبوك بعين الاعتبار للرجوع إليه لاحقًا كمرجع لوضع السياسات المستقبلية الخاصة بها.
أعادت فيسبوك المحتوى الخاص بالمستخدم بعد تحديد أن إزالته قد تمت عن طريق الخطأ، وهو على الأرجح ما لم يكن ليحدث لولا تحديد المجلس لهذه الحالة. تماشيًا مع قرار المجلس بشأن الحالة 2020-004-IG-UA، فإن قرار فيسبوك باستعادة المحتوى لا يمنع من مراجعة الحالة. تظل المخاوف بشأن سبب حدوث الخطأ والضرر الناجم عنه وضرورة ضمان عدم تكراره قائمة. يوفر المجلس للمستخدمين فرصة للتعبير عن آرائهم والحصول على توضيح كامل لما حدث.
4. المعايير ذات الصلة
أخذ مجلس الإشراف المعايير التالية في الاعتبار عند إصدار قراره:
1. معايير مجتمع فيسبوك:
توضح سياسة فيسبوك بشأن الأفراد الخطرين والمنظمات الخطرةأنه "في إطار سعينا لمنع الأعمال التي من شأنها إلحاق أضرار فعلية على أرض الواقع وإيقافها، فإننا لا نسمح لأي منظمات أو أفراد يتبنون مهمات تنطوي على أعمال عنف أو يشاركون في أعمال عنف بالتواجد على فيسبوك". وينص المعيار أيضًا على أن فيسبوك تزيل "المحتوى الذي يعبر عن دعم مجموعات أو زعماء أو أشخاص ضالعون في هذه الأنشطة أو يمدحهم".
2. قيم فيسبوك:
تم توضيح قيم فيسبوك في مقدمة معايير المجتمع.
وقد جرى وصف قيمة "حرية الرأي" بأنها "ذات أهمية قصوى":
يتمثل هدف معايير مجتمعنا دائمًا في توفير مكان لحرية الرأي يستطيع الأشخاص من خلاله إبداء وجهات نظرهم. [...] ونحن نريد أن يتمتع الأشخاص بالقدرة على التحدث بحرية عن القضايا التي تهمهم، حتى في حالة عدم اتفاق البعض أو اعتراضهم.
قد تقيد فيسبوك "حرية الرأي" لصالح أربع قيم، بما في ذلك "السلامة" و"الكرامة":
"السلامة": نحن ملتزمون بجعل فيسبوك مكانًا آمنًا. ولا شك أن أشكال التعبير التي تحمل تهديدًا للأشخاص قد تتسبب في إخافة الآخرين أو استبعادهم أو إسكاتهم ونحن لا نسمح بذلك على فيسبوك.
"الكرامة" : نحن نؤمن بأن الأشخاص متساوون في الكرامة والحقوق. ونتوقع من الجميع احترام كرامة الآخرين وعدم الإساءة إليهم أو الحط من قدر الآخرين.
3. معايير حقوق الإنسان:
تُرسي مبادئ الأمم المتحدة التوجيهية بشأن الأعمال التجارية وحقوق الإنسان (UNGP)، التي أقرها مجلس حقوق الإنسان التابع للأمم المتحدة عام 2011، إطار عمل تطوعي لمسؤوليات الأنشطة التجارية الخاصة فيما يتعلق بحقوق الإنسان. تم توضيح التزام فيسبوك باحترام معايير حقوق الإنسان بما يتماشى مع المبادئ التوجيهية للأمم المتحدة في سياسة جديدة للشركة تم إطلاقها في مارس 2021. استند تحليل المجلس في هذه الحالة إلى معايير حقوق الإنسان التالية:
حرية التعبير: المادة 19 من العهد الدولي الخاص بالحقوق المدنية والسياسية (ICCPR)؛ لجنة حقوق الإنسان، التعليق العام رقم 34 (2011)؛ تقارير المقرر الخاص المعني بحرية الرأي والتعبير: A/HRC/38/35 (2018) وA/74/486 (2019)
الحق في عدم التعرض للتمييز: المادة 2، الفقرة 1 والمادة 26، العهد الدولي الخاص بالحقوق المدنية والسياسية؛ لجنة حقوق الإنسان، التعليق العام رقم 23 (1994)؛ الجمعية العامة، إعلان بشأن حقوق الأشخاص المنتمين إلى أقليات قومية أو إثنية وإلى أقليات دينية ولغوية، كما فسره الخبير المستقل المعني بقضايا الأقليات في A/HRC/22/49 الفقرة 57-58 (2012)؛ المقرر الخاص المعني بقضايا الأقليات A/HRC/46/57 (2021)
الحق في سبل انتصاف فعّال: المادة 2، الفقرة 3، العهد الدولي الخاص بالحقوق المدنية والسياسية؛ لجنة حقوق الإنسان، التعليق العام رقم 31 (2004)؛ لجنة حقوق الإنسان، التعليق العام رقم 29 (2001)؛
الحق في الأمن الشخصي: المادة 9، الفقرة 1، العهد الدولي الخاص بالحقوق المدنية والسياسية، حسب التفسير الوارد في التعليق العام رقم 35، الفقرة 9.
5. بيان المستخدم
أوضح المستخدم للمجلس أن المنشور لم يكن تهديدًا أو إجراميًا ولكنه ببساطة كرر محتوى الفيديو وتحدث بلهجته. واشتكى المستخدم من القيود التي فُرضت على حسابه. واقترح أن تحذف فيسبوك ببساطة مقاطع الفيديو المثيرة للمشكلات وأن تتجنب تقييد حسابات المستخدمين ما داموا لم يشاركوا في سلوك ينطوي على تهديد أو إجرام. وزعم المستخدم أيضًا أن آلاف الأشخاص يتفاعلون مع المحتوى الذي يقدمه ويطالبون باستعادة الحساب على الفور.
6. شرح قرار فيسبوك
وفقًا لفيسبوك، وعقب تلقي بلاغ واحد بشأن المنشور، وجد الشخص القائم على المراجعة عن طريق الخطأ انتهاكًا لمعيار المجتمع الذي يتناول الأفراد الخطرين والمنظمات الخطرة. أخبرت فيسبوك المجلس أن منشور المستخدم لم يتضمن أي إشارة إلى أفراد أو منظمات تم نعتها بالخطورة. وأردفت أن المنشور لم يتضمن أي مدح مخالف.
أوضحت فيسبوك أن الخطأ نتج عن طول مدة الفيديو (17 دقيقة)، وعدد المتحدثين (اثنان)، وتعقيد المحتوى، وما تضمنه من مزاعم بشأن العديد من الجماعات السياسية. أضافت الشركة أن القائمين على مراجعة المحتوى يراجعون الآلاف من عناصر المحتوى كل يوم وبالتالي تحدث الأخطاء خلال تلك العملية. نتيجة لحجم المحتوى، ذكرت فيسبوك أن القائمين على مراجعة المحتوى لا يتمكنون دائمًا من مشاهدة الفيديو بالكامل. تعذر على فيسبوك تحديد الجزء الذي رأى المراجع أنه ينتهك قواعد الشركة.
على الرغم من أن المستخدم قد تقدم إلى فيسبوك بطعن على القرار، فقد تم إبلاغه أن فيسبوك لن تتمكن من مراجعة المنشور مرة أخرى بسبب نقص أعداد المراجعين نتيجة لانتشار فيروس كورونا (كوفيد-١٩).
7. المعلومات المقدمة من جهات خارجية
تلقى مجلس الإشراف ستة تعليقات عامة ذات صلة بهذه الحالة. تعليقان من أوروبا وأربعة تعليقات من الولايات المتحدة وكندا. تناولت المعلومات المقدَّمة الموضوعات التالية: نطاق حرية التعبير السياسي، وحق فيسبوك القانوني في الإشراف على المحتوى، والسياق السياسي في الهند.
لقراءة التعليقات العامة المقدمة في هذه الحالة، يرجى النقر هنا.
8. تحليل مجلس الإشراف
8.1 الامتثال لمعايير المجتمع
اختتم المجلس بأن قرار فيسبوك الأصلي بإزالة المحتوى لم يكن متوافقًا مع معيار مجتمعها بشأن الأفراد الخطرين والمنظمات الخطرة.
أشار المحتوى إلى حزب بهاراتيا جاناتا ومنظمة راشتريا سوايامسيفاك سانغ والعديد من قادتهما. أوضحت فيسبوك أنه لم يتم نعت أي من هؤلاء الأفراد او تلك المجموعات بأنها "خطرة" بموجب معايير المجتمع، وتعذر عليها التوصل تحديدًا إلى الكلمات التي أدت إلى إزالة المحتوى. لاحظ المجلس أنه حتى لو تم تصنيف هذه المنظمات على أنها منظمات خطرة، فإن المحتوى انتقدها بوضوح. امتدح المحتوى مجموعة واحدة، وهم المزارعون الهنود الذين كانوا يحتجون. وبالتالي يبدو أنه لم يتم تخصيص الوقت أو الاهتمام الكافي لمراجعة هذا المحتوى.
وجد المجلس أن معيار المجتمع بشأن الأفراد الخطرين والمنظمات الخطرة ينص بوضوح على إزالة المحتوى المخالف. توضح مقدمة معايير المجتمع ومركز مساعدة فيسبوك وغرفة الأخبار أن الانتهاكات الجسيمة أو المستمرة قد تؤدي إلى فقدان صلاحية الوصول إلى بعض الميزات. في هذه الحالة، أوضحت فيسبوك للمجلس أنها فرضت قيودًا تلقائية على حساب المستخدم لمدة زمنية ثابتة بسبب تكرار الانتهاكات. وجد المجلس أن ذلك كان سيتفق مع معايير المجتمع التي تقرها الشركة لو كان هناك انتهاك.
أوضحت فيسبوك للمجلس أن القيود فُرضت على الحساب تلقائيًا. ويتم فرض القيود التلقائية بمجرد تحديد حدوث انتهاك لمعايير المجتمع واستنادًا إلى سجّل الانتهاكات السابقة للشخص. يعني ذلك أن الشخص القائم على مراجعة المحتوى لا يعلم ما إذا كانت إزالة المحتوى ستؤدي إلى فرض قيود على الحساب أم لا، كما أنه لا دور له في تحديد هذه القيود. لاحظ المجلس أن تبعات الأخطاء التي تقع أثناء إنفاذ معايير المجتمع قد تكون شديدة وعبّر عن مخاوفه من أن فرض القيود على مستوى الحساب قد تم بشكل خاطئ في هذه الحالة.
8.2 الامتثال لقيم فيسبوك
وجد المجلس أن قرار فيسبوك بإزالة المحتوى لا يتفق مع قيم "حرية الرأي" و"الكرامة" و"السلامة". تضمن المحتوى رابطًا إلى تقرير إعلامي وارتبط بقضايا سياسية مهمة، بما في ذلك التعليق على الانتهاكات المزعومة لحقوق الأقليات وإسكات أصوات المعارضة بواسطة كبار ساسة حزب بهاراتيا جانات ومنظمة راشتريا سوايامسيفاك سانغ. وبالتالي فإن الإزالة غير الصحيحة للمنشور قد انتقصت من قيم "حرية الرأي" و"الكرامة."
أشارت فيسبوك إلى أنها تعطي أولوية لقيمة "السلامة" عند إنفاذ معيار المجتمع بشأن الأفراد الخطرين والمنظمات الخطرة. ومع ذلك، فإن المحتوى في هذه الحالة لم يُشر إلى أو يمتدح أي أفراد أو منظمات تم تحديدها كأفراد أو منظمات خطرة. بدلاً من ذلك، وجد المجلس أن المحتوى قد انتقد الجهات الحكومية والجماعات السياسية.
8.3 الامتثال لمسؤوليات فيسبوك تجاه حقوق الإنسان
لم يكن تطبيق فيسبوك لمعيار مجتمعها بشأن الأفراد الخطرين والمنظمات الخطرة متسقًا مع مسؤوليات الشركة تجاه حقوق الإنسان والتزاماتها المعلنة تجاه المبادئ التوجيهية للأمم المتحدة. يدعو المبدآن 11 و13 الشركات إلى تجنب التسبب أو الإسهام في حدوث آثار ضارة لحقوق الإنسان نتيجة لأنشطتها أو علاقاتها مع الأطراف الأخرى، بما في ذلك الجهات الحكومية، وأن تعمل على التخفيف من تلك الآثار.
1. حرية التعبير والمعلومات (المادة 19 من العهد الدولي الخاص بالحقوق المدنية والسياسية)
تضمن المادة 19 من العهد الدولي الخاص بالحقوق المدنية والسياسية الحق في حرية التعبير، وتولي أهمية خاصة للنقاش العام غير المقيد، لا سيّما فيما يتعلق بالشخصيات السياسية والمناقشة حول حقوق الإنسان (التعليق العام رقم 34، الفقرتان 11 و34).
تضمن المادة 19 أيضًا الحق في التماس المعلومات والحصول عليها، بما في ذلك من وسائل الإعلام (التعليق العام رقم 34، الفقرة 13). وهذا أمر مضمون دون تمييز، ويؤكد قانون حقوق الإنسان بشكل خاص على أهمية وسائل الإعلام المستقلة والمتنوعة، لا سيّما للأقليات الإثنية واللغوية (التعليق العام رقم 34، الفقرة 14).
أ. الشرعية
عبّر المجلس سابقًا عن مخاوفه بشأن قدرة الأشخاص على الوصول إلى معيار المجتمع الذي يتناول الأفراد الخطرين والمنظمات الخطرة، بما في ذلك حول تفسير فيسبوك "للمديح" وعملية تحديد الأفراد الخطرين والمنظمات الخطرة (قرار الحالة 2020-005-FB-UA). إن وضع قواعد دقيقة هو أمر مهم لتقييد أي سلطة مطلقة ومنع اتخاذ قرارات تعسفية (التعليق العام رقم 34، الفقرة 25)، والحماية من التميز. ويساعد ذلك أيضًا مستخدمي فيسبوك على فهم القواعد التي يتم تطبيقها عليهم. أثار مقرر الأمم المتحدة الخاص المعني بحرية التعبير مخاوف بشأن تبني شركات وسائل التواصل الاجتماعي قواعد غامضة تحظر على نطاق واسع "مدح" و"دعم" قادة المنظمات الخطرة (تقرير A/HRC/38/35، الفقرة 26).
يجب أيضًا توضيح عواقب انتهاك القواعد، على سبيل المثال تعليق وظائف الحساب أو تعطيله. ويشعر المجلس بالقلق من انتشار المعلومات المتعلقة بقيود الحساب عبر عدة مواقع، وأنها غير مذكورة بالكامل في معايير المجتمع على النحو المتوقع. ومن المهم منح المستخدم إشعارًا ومعلومات كافية عند انتهاكه للقواعد حتى يتمكن من تعديل سلوكه تبعًا لذلك. وأشار المجلس إلى توصياته السابقة التي تنص على أنه لا ينبغي لفيسبوك توقع تجميع المستخدمين للقواعد من عدة مصادر، وضرورة دمج القواعد في معايير المجتمع (القرار بشأن الحالة 2020-006- FB-FBR، القسم 9.2).
عبّر المجلس عن قلقه بشأن عدم ترجمة معايير المجتمع إلى اللغة البنجابية، وهي لغة مستخدمة على نطاق واسع حيث يبلغ متحدثوها 30 مليون شخص في الهند. علاوة على ذلك، لا تتوفر معايير التنفيذ الداخلية في فيسبوك باللغة البنجابية حتى يستخدمها المشرفون الذين يعملون بهذه اللغة. وهو على الأرجح ما فاقم مشكلة عدم فهم المستخدمين للقواعد، وزاد من احتمال ارتكاب المشرفين لأخطاء أثناء تطبيق القواعد. وتثير التأثيرات المحتملة التي تعود على الأقليات نتيجة لذلك تحديدًا مخاوف تتعلق بحقوق الإنسان (A/HRC/22/49، الفقرة 57).
ب. الهدف المشروع
تنص المادة 19، الفقرة 3 من العهد الدولي الخاص بالحقوق المدنية والسياسية على أن الأهداف المشروعة تشمل احترام حقوق الآخرين أو سمعتهم، فضلاً عن حماية الأمن القومي أو النظام العام أو الصحة العامة أو الآداب العامة. وقد أشارت فيسبوك إلى أن هدف معيار المجتمع بشأن الأفراد الخطرين والمنظمات الخطرة يتمثل في حماية حقوق الآخرين. وقد اقتنع المجلس بأن السياسة تسعى إلى تحقيق هدف مشروع، ولا سيّما حماية الحق في الحياة، والأمن الشخصي، والمساواة وعدم التمييز (التعليق العام رقم 34، الفقرة 28؛ قرار مجلس الإشراف 2020-005-FB-UA).
ج. الضرورة والتناسب
يجب أن تكون القيود ضرورية ومتناسبة لتحقيق الهدف المشروع. ويجب أن يكون هناك ارتباط مباشر بين الضرورة والتناسب للإجراء المحدد الذي يتم اتخاذه والتهديد الناشئ عن حرية التعبير (التعليق العام رقم 34، الفقرة 35). وقد أقرت فيسبوك أن قرارها بإزالة المحتوى قد تم عن طريق الخطأ، ولم تدعي الشركة أنه كان ضروريًا أو متناسبًا.
تمثل الأخطاء التي تقيد حرية التعبير بشأن القضايا السياسية مصدر قلق بالغ. ومن المثير للقلق بشكل خاص انتشار مثل هذه الأخطاء على نطاق واسع، وخاصة إذا كان ذلك يؤثر في المتحدثين بلغة الأقليات أو الأقليات الدينية التي قد تكون بالفعل مهمشة سياسيًا. وقد عبر مقرر الأمم المتحدة الخاص المعني بقضايا الأقليات عن قلقه بشأن الخطاب الذي يحض على الكراهية والذي يستهدف الأقليات على فيسبوك في الهند (A/HRC/46/57، الفقرة 40). وفي مثل هذه السياقات الإقليمية، قد تؤدي الأخطاء إلى إسكات أصوات الأقليات التي تسعى إلى مواجهة أشكال الخطاب التمييزي والذي يحض على الكراهية، كما في هذه الحالة.
يؤكد السياق السياسي القائم في الهند عند نشر هذا المنشور على ضرورة اتخاذ القرارات بشكل صحيح، حيث انطوى على احتجاجات جماعية مناهضة للحكومة قام بها المزارعون، وضغط حكومي متزايد على منصات التواصل الاجتماعي لإزالة المحتوى ذي الصلة. في هذه الحالة، المحتوى المرتبط بالاحتجاجات وإسكات أصوات المعارضة. وتضمن المنشور أيضًا رابطًا إلى مقابلة من منفذ إعلامي يتحدث بلغة الأقلية ويتناول تلك الموضوعات. ينبغي على المنصات المهيمنة تجنب تقييد حرية التعبير لدى الأقليات التي تحتج ضد حكوماتها وأن تدعم التعددية والتنوع في وسائل الإعلام (التعليق العام رقم 34، الفقرة 40). وقد كانت قيود الحساب التي استبعدت المستخدم من المنصة عن طريق الخطأ أثناء هذه الفترة الحرجة غير متناسبة بشكل خاص.
أوضحت فيسبوك أنها لم تتمكن من إجراء طعن بشأن محتوى المستخدم نتيجة تخفيض عدد الموظفين بسبب جائحة فيروس كورونا (كوفيد-١٩). وعلى الرغم من تقدير المجلس لهذه الظروف الفريدة، فإنه يؤكد مجددًا على أهمية تحلي فيسبوك بالشفافية وتوفير وسيلة للطعن على قراراتها في متناول المستخدمين (المبادئ التوجيهية للأمم المتحدة، المبدأ 11؛ A/74/486، الفقرة 53). كما عبّر المجلس في قراره بشأن الحالة 2020-004-IG-UA، ينبغي أن يتمكن المستخدم من التقدم بطعن إلى فيسبوك قبل اللجوء إلى المجلس. لضمان وصول المستخدم إلى سبل الانتصاف، ينبغي على فيسبوك إعطاء أولوية لاستعادة قدراتها الاستيعابية في أسرع وقت ممكن.
يقر المجلس أن الأخطاء حتمية عند الإشراف على المحتوى على نطاق واسع. ومع هذا، تقتضي مسؤوليات فيسبوك تجاه منع حدوث آثار سلبية تتعلق بحقوق الإنسان والتخفيف من حدتها والتعامل معها التعلم من هذه الأخطاء (مبادئ الأمم المتحدة التوجيهية، المبدآن 11 و13).
ليس بالإمكان الاستناد إلى حالة واحدة لمعرفة ما إذا كان تطبيق القاعدة يندرج تحت التحيز المتعمد أو غير المتعمد نيابة عن المراجع. رفضت فيسبوك أيضًا تقديم إجابات محددة عن أسئلة المجلس بشأن عمليات التواصل المحتملة من السلطات الهندية لتقييد المحتوى الذي يتناول احتجاجات المزارعين، أو المحتوى الذي ينتقد تعامل الحكومة مع المزارعين، أو المحتوى الذي يدور حول الاحتجاجات. قررت فيسبوك أن المعلومات التي تم طلبها لم تكن ضرورية بشكل معقول لاتخاذ القرار وفقًا لمقاصد اتفاقية المجلس و/أو لا يمكن أو لا ينبغي أن تقديمها نتيجة لوجود قيود أو مخاوف تتعلق بالخصوصية أو السلامة أو حماية البيانات. استندت فيسبوك إلى المادة 2، القسم 2.2.2 من اللائحة الداخلية لمجلس الإشراف لتبرير رفضها.
أجابت فيسبوك عن سؤال المجلس بشأن مدى استقلال الإشراف في الهند عن تأثير الحكومة. أوضحت الشركة أن فريقها يتلقى تدريبات مخصصة لمنطقتهم أو سوقهم أو الدور الذي يضطلعون به كجزء من المبادرة العالمية للأخلاقيات والامتثال، والتي تعمل على نشر ثقافة الصدق والشفافية والنزاهة والمساءلة والقيم الأخلاقية. علاوة على ذلك، يلتزم موظفو فيسبوك بمدونة قواعد السلوك وسياسة مكافحة الفساد.
يؤكد المجلس على أهمية عمليات مراجعة قرارات الإشراف على المحتوى، بما في ذلك التدقيق، للبحث عن أي تحيز وتصحيحه في القرارات اليدوية والآلية، لا سيّما فيما يتعلق بالأماكن التي تمر بفترات من الأزمات وعدم الاستقرار. يجب أن تأخذ هذه التقييمات في الاعتبار إمكانية قيام الحكومات والجهات الفاعلة غير الحكومية بحملات منسقة للإبلاغ عن المعارضة بشكل ضار.
تعتبر الشفافية أمرًا ضروريًا لضمان إجراء تدقيق عام في تصرفات فيسبوك في هذا المجال. ويزيد عدم توفر التفاصيل في تقارير الشفافية التي تصدرها فيسبوك من صعوبة قيام المجلس أو الجهات الفاعلة الأخرى، على سبيل المثال، بتقييم ما إذا كان إنفاذ سياسة الأفراد الخطرين والمنظمات الخطرة له تأثيرات خاصة على المستخدمين، لا سيّما المتحدثين بلغة الأقلية، في الهند. لتعزيز المناقشة، ينبغي على فيسبوك توفير مزيد من البيانات للعامة، وتوفير تحليل لمدلولات تلك البيانات.
9. قرار مجلس الإشراف
ألغى مجلس الإشراف قرار فيسبوك بإزالة المحتوى، وطلب استعادة المنشور. أشار المجلس إلى أن فيسبوك قد اتخذت بالفعل إجراءً يحقق تلك الغاية.
10. البيان الاستشاري بشأن السياسة
التوصيات التالية مرقمة، ويطلب المجلس من فيسبوك تقديم رد فردي لكل نقطة بصيغتها الحالية.
إمكانية الوصول
1. ينبغي على فيسبوك ترجمة معايير مجتمعها ومعايير التنفيذ الداخلية إلى اللغة البنجابية. يجب أن تعمل فيسبوك على إتاحة معايير مجتمعها بكل اللغات التي يتحدث بها مستخدموها على نطاق واسع. وهو ما سيسمح بفهم كامل للقواعد التي ينبغي على المستخدمين الالتزام بها عند استخدام منتجات فيسبوك. كما سيزيد من سهولة تفاعل المستخدمين مع فيسبوك بشأن المحتوى الذي قد ينتهك حقوقهم.
الحق في سبل انتصاف
2. تماشياً مع توصية المجلس في الحالة 2020-004-IG-UA، يجب على الشركة استعادة كل من المراجعة البشرية والوصول إلى عمليات الطعن البشري إلى مستويات ما قبل الجائحة في أسرع وقت ممكن مع الحماية الكاملة لصحة موظفي فيسبوك ومتعهديها.
تقارير الشفافية
3. ينبغي على فيسبوك تحسين تقارير الشفافية التي تصدرها لزيادة المعلومات العامة عن معدلات الأخطاء من خلال إتاحة إمكانية الاطلاع على تلك المعلومات حسب البلد واللغة لكل معيار من معايير المجتمع. يؤكد المجلس أن إصدار تقارير شفافية أكثر تفصيلًا سيساعد العامة على تحديد المواطن التي يشيع حدوث أخطاء فيها، بما في ذلك التأثيرات المحتملة المحددة بشأن الأقليات، وسيسمح لهم بتنبيه فيسبوك لتصحيحها.
*ملاحظة إجرائية:
يتم إعداد قرارات مجلس الإشراف من قِبل لجان مكونة من خمسة أعضاء ويتم اعتمادها من أغلبية أعضاء المجلس. ولا يلزم بالضرورة أن تُعبّر قرارات المجلس عن وجهات النظر الشخصية لجميع الأعضاء.
بالنسبة إلى القرار المتخذ بشأن هذه الحالة، تم إجراء بحث مستقل نيابة عن المجلس. وقد توافرت الخبرة اللازمة في السياق الاجتماعي والسياسي والثقافي عن طريق معهد أبحاث مستقل يقع مقره في جامعة جوتنبرج ويعتمد على فريق مكون من أكثر من 50 عالم اجتماع من ست قارات، فضلاً عن أكثر من 3200 خبير محلي من جميع أنحاء العالم. وقد تم تقديم الخبرة اللغوية من شركة Lionbridge Technologies LLC، التي يتقن المتخصصون بها أكثر من 350 لغة ويعملون من 5000 مدينة حول العالم.
العودة إلى قرارات الحالة والآراء الاستشارية المتعلقة بالسياسة