أيد
فيديو عن التحرش الجنسي في الهند
أيد مجلس الإشراف قرار Meta باستعادة منشور إلى Instagram يحتوي على فيديو لامرأة تتعرض لاعتداء جنسي من قبل مجموعة من الرجال.
أيد مجلس الإشراف قرار Meta باستعادة منشور إلى Instagram يحتوي على فيديو لامرأة تتعرض لاعتداء جنسي من قبل مجموعة من الرجال. وجد المجلس أن "استثناء الأهمية الإخبارية" الذي تقره شركة Meta غير كافٍ في حل الحالات من هذا القبيل على نطاق واسع وأنه ينبغي على الشركة استحداث استثناء لسياسة الاستغلال الجنسي للبالغين.
حول هذه الحالة
في مارس 2022، نشر حساب على Instagram، موصوف بأنه منصة لاستعراض وجهات نظر طبقة الداليت، فيديو من الهند يصور امرأة تتعرض للاعتداء من قِبل مجموعة من الرجال. في السابق، كان يشار إلى شعب "الداليت" بأنهم "منبوذون"، وتعرضوا للقمع في ظل النظام الطبقي. لا يظهر وجه المرأة في الفيديو ولا يوجد أي عُري. وجاء في النص المصاحب للفيديو أن "امرأة قبلية" تعرضت للاعتداء الجنسي والتحرش على الملأ، وانتشر الفيديو انتشارًا واسعًا. تشير كلمة "قبلية" إلى السكان الأصليين في الهند، ويشار إليهم أيضًا باسم أديفاسي.
بعد إبلاغ أحد المستخدمين عن المنشور، أزالته Meta لانتهاك سياسة الاستغلال الجنسي للبالغين، والتي تحظر المحتوى الذي "يصوّر أو يهدد أو يروّج العنف الجنسي أو الاعتداء الجنسي أو الاستغلال الجنسي."
لفت أحد موظفي Meta الانتباه إلى إزالة المحتوى من خلال قناة إبلاغ داخلية عندما علم بشأنه على Instagram. بناءً على ذلك، راجعت فِرق Meta الداخلية المحتوى وطبقت "استثناء الأهمية الإخبارية." وهو الذي يسمح للمحتوى المخالف بالبقاء على منصات Meta إذا كان يحظى بأهمية إخبارية أو يخدم المصلحة العامة. أعادت Meta المحتوى، ووضعت شاشة تحذيرية على الفيديو تمنع أي شخص دون 18 عامًا من مشاهدته، وأحالت الحالة بعد ذلك إلى المجلس.
أهم النتائج
يرى المجلس أن استعادة هذا المحتوى إلى المنصة مع تضمين شاشة تحذيرية يتفق مع قيم ومسؤوليات Meta تجاه حقوق الإنسان.
يدرك المجلس أن المحتوى الذي يصور التلامس الجنسي القسري يحتمل بشكل كبير أن يؤدي إلى وقوع ضرر، على الضحايا أنفسهم وعلى نطاق أوسع، على سبيل المثال عن طريق تشجيع الجناة وزيادة قبول العنف.
في الهند، يعاني أفراد مجتمع الداليت والأديفاسي، لا سيّما النساء، من تمييز سافر، وتزايد في الجرائم التي ترتكب بحقهم. تعتبر وسائل التواصل الاجتماعي وسيلة مهمة لتوثيق هذا النوع من العنف والتمييز ويبدو أن المحتوى في هذه الحالة قد نُشر لتعزيز الوعي بذلك. وبالتالي يحظى المنشور بقيمة كبيرة على صعيد المصلحة العامة ويتمتع بدرجة عالية من الحماية بموجب المعايير الدولية لحقوق الإنسان.
نظرًا لأن الفيديو لا يتضمن محتوى فاضحًا أو عُريًا، ولما رأته غالبية أعضاء المجلس من عدم إمكانية تحديد هوية الضحية، فقد وجدت الأغلبية أن فوائد السماح ببقاء الفيديو على المنصة، خلف شاشة تحذيرية، تفوق مخاطر حدوث ضرر. عند عدم القدرة على تحديد هوية الضحية، ينخفض احتمال حدوث ضرر بشكل كبير. تساعد الشاشة التحذيرية، التي تمنع الأشخاص دون 18 عامًا من مشاهدة الفيديو، على حماية كرامة الضحية، وحماية الأطفال وضحايا التحرش الجنسي من التعرض لمحتوى مزعج أو صادم.
يتفق المجلس على أن المحتوى ينتهك سياسة الاستغلال الجنسي للبالغين وأنه يمكن تطبيق استثناء الأهمية الإخبارية. مع هذا، فإن المجلس يكرر مخاوفه التي أثيرت في الحالة التي كانت بعنوان "فيديو صادم حول السودان"، وقد وجد أن استثناء الأهمية الإخبارية غير كافٍ للتعامل مع مثل هذه الحالات على نطاق واسع.
ونادرًا ما يتم استخدام استثناء الأهمية الإخبارية. في العام الذي انتهى 1 يونيو 2022، لم تطبقه Meta إلى 68 مرة على مستوى العالم، وهو رقم لم يتم الإعلان عنه إلا بعد توصية من المجلس. ولم يصدر سوى القليل من هذا العدد لحالات تتعلق بمعيار المجتمع بشأن الاستغلال الجنسي للبالغين. ولا يمكن تطبيق استثناء الأهمية الإخبارية إلا بواسطة فِرق Meta الداخلية. ومع هذا، تُظهر هذه الحالة أن عملية تصعيد المحتوى وثيق الصلة إلى هذه الفِرق لا يُعتمد عليها. لفت أحد موظفي Meta الانتباه إلى إزالة المحتوى من خلال قناة إبلاغ داخلية عندما علم بشأنه على Instagram.
يتسم استثناء الأهمية الإخبارية بالغموض، ويترك مجالاً كبيرًا للتقدير أمام الشخص القائم على تطبيقه، ولا يضمن التطبيق بشكل موحد على نطاق واسع. وعلاوة على ذلك، فهو لا يتضمن معايير واضحة لتقييم الضرر المحتمل الناتج عن المحتوى الذي ينتهك سياسة الاستغلال الجنسي للبالغين. ويرى المجلس أن مسؤوليات Meta تجاه حقوق الإنسان تقتضي توفير معايير أوضح وعمليات إنفاذ أكثر فعّالية للحالات المشابهة للحالة التي بين أيدينا. ويحتاج الأمر إلى وجود استثناء للسياسة يمكن تطبيقه على نطاق واسع، ويتم تصميمه خصيصًا لسياسة الاستغلال الجنسي للبالغين. يجب أن يوفر ذلك إرشادات أوضح لتمييز المنشورات التي تتم مشاركتها لتعزيز الوعي عن تلك التي تهدف إلى استمرار العنف أو التمييز، وتساعد Meta على الموازنة بين الحقوق المتنافسة على نطاق واسع.
قرار مجلس الإشراف
أيد مجلس الإشراف قرار Meta باستعادة المحتوى مع وضع شاشة تحذيرية.
وأوصى المجلس Meta أيضًا بما يلي:
- تضمين استثناء لمعيار المجتمع بشأن الاستغلال الجنسي للبالغين لحالات تصوير التلامس الجنسي القسري. والذي يقتصر تطبيقه على فِرق Meta الداخلية ويسمح بالمحتوى الذي لا يمكن تحديد هوية الضحية من خلاله، وتقرر Meta أنه تمت مشاركته لتعزيز الوعي، وليس ضمن سياق مثير للمشاعر، وألا يتضمن عُريًا.
- تحديث إرشاداتها الداخلية للمراجعين الذين يعملون على نطاق واسع بشأن متى يتم تصعيد المحتوى الذي جرت مراجعته بموجب معيار المجتمع بشأن الاستغلال الجنسي للبالغين والذي يمكن أن يكون مؤهلاً لاستثناء السياسة المذكور أعلاه.
*توفر ملخصات الحالة نظرة عامة على الحالة ولا تُشكّل سابقة قانونية.
القرار الكامل للمجلس بشأن الحالة
1.ملخص القرار
أيدت غالبية أعضاء المجلس قرار شركة Meta باستعادة المحتوى إلى المنصة ووضع شاشة تحذيرية عليه. ومع ذلك، يرى المجلس أنه في حين يمكن تطبيق استثناء الأهمية الإخبارية في هذه الحالة، فإنه لا يوفر معيارًا واضحًا أو عملية فعّالة لحل القضايا المشابهة على نطاق واسع. وتماشيًا مع قيم Meta ومسؤولياتها تجاه حقوق الإنسان، يجب عليها إضافة استثناء محدد بوضوح في سياستها بشأن الاستغلال الجنسي للبالغين يتم تطبيقه بطريقة أكثر اتساقًا وفعّالية من استثناء الأهمية الإخبارية. ويجب تصميم الاستثناء بحيث يوفر الحماية للمحتوى الذي يعزز الوعي بالقضايا العامة ويساعد Meta على موازنة المخاطر المحددة للأضرار التي يمثلها المحتوى الذي ينتهك سياسة الاستغلال الجنسي للبالغين. ويرى غالبية أعضاء المجلس أنه، بدلاً من الاعتماد على استثناء الأهمية الإخبارية، من الأفضل تطبيق الاستثناء الموصى به على سياسة الاستغلال الجنسي للبالغين، والذي كان سيسمح بالمحتوى المعني في هذه الحالة. وترى أقلية من أعضاء المجلس أن الاستثناء المذكور لا ينطبق على المحتوى في هذه الحالة.
2. وصف الحالة ومعلومات أساسية عنها
في مارس 2022، نشر حساب على Instagram، موصوف بأنه منصة إخبارية لاستعراض وجهات نظر طبقة الداليت، فيديو من الهند يصور امرأة تتعرض للاعتداء من قِبل مجموعة من الرجال. في السابق، كان يشار إلى "الداليت" باسم "المنبوذين"، وهي طبقة تعاني من العزلة الاجتماعية والتهميش الاقتصادي في الهند بسبب النظام الطبقي في البلاد - وهو نظام هرمي للتقسيم الطبقي الاجتماعي. ولا يُظهر الفيديو وجه المرأة التي كانت بكامل ملابسها. وجاء في النص المصاحب للفيديو باللغة الإنجليزية أن "امرأة قبلية" تعرضت للاعتداء الجنسي والتحرش علنًا من قِبل مجموعة من الرجال، وانتشر الفيديو في السابق انتشارًا واسعًا. ويشير مصطلح "قبلية" إلى السكان الأصليين في الهند، والذين يشار إليهم أيضًا باسم أديفاسي. ويحتوي الحساب الذي نشر الفيديو على نحو 30000 متابع، يقيم معظمهم في الهند. ويكثر تعرض نساء الداليت والأديفاسي للاعتداءات في البلاد (راجع القسم 8.3).
أبلغ مستخدم آخر على Instagram عن المحتوى على أنه يحتوي على إغواء جنسي وأُرسِل للمراجعة البشرية. وقرر المراجعون أن المحتوى ينتهك سياسة الاستغلال الجنسي للبالغين لدى Meta. وبموجب هذه السياسة، تزيل Meta المحتوى الذي "يصور أو يهدد أو يروج للعنف الجنسي أو الاعتداء الجنسي أو الاستغلال الجنسي". بعد إزالة المحتوى، طبقت Meta إنذارًا قياسيًا واحدًا (إنذارًا ينطبق على كل أنواع الانتهاكات)، وإنذارًا شديدًا (إنذارًا ينطبق على الانتهاكات الأكثر فظاعة، بما في ذلك انتهاكات سياسة الاستغلال الجنسي للبالغين)، وتقييدًا للميزات لمدة 30 يومًا على حساب منشئ المحتوى. أدى تقييد الميزات إلى منع المستخدم من بدء أي فيديو بث مباشر.
في اليوم الذي أزيل فيه المحتوى الأصلي، شاهد أحد أعضاء فريق العمليات العالمية المعنية بالمحتوى لدى Meta منشورًا في حسابه الشخصي على Instagram يناقش إزالة المحتوى، وقام بتصعيد المنشور الأصلي. عند تصعيد المحتوى، تتم مراجعته بواسطة خبراء السياسة والسلامة في شركة Meta. عند التصعيد، أصدرت Meta استثناء أهمية إخبارية، وألغت الإنذارات، وأعادت المحتوى، ووضعت شاشة تحذيرية على مقطع الفيديو لتنبيه المستخدمين بأنه قد يحتوي على محتوى عنيف أو صادم. وتمنع الشاشة التحذيرية المستخدمين الذين تقل أعمارهم عن 18 عامًا من مشاهدة المحتوى وتطلب من جميع المستخدمين الآخرين النقر على الشاشة لمشاهدة الفيديو. ويسمح استثناء الأهمية الإخبارية للمحتوى المخالف لسياسات Meta بالبقاء على منصاتها في الحالات التي يحظى فيها المحتوى بأهمية إخبارية ويخدم استمراره على المنصة الصالح العام. ولا يمكن تطبيق هذا الاستثناء إلا من خلال فرق متخصصة في Meta، وهو ما لا يتوفر للمراجعين الذين يراجعون المحتوى على نطاق واسع.
أحالت Meta هذه الحالة إلى مجلس الإشراف، حيث أشارت إلى الصعوبة التي تواجهها في تحقيق "التوازن المناسب بين السماح بالمحتوى الذي يدين الاستغلال الجنسي والضرر الناتج عن السماح ببقاء الصور المرئية للتحرش الجنسي على منصاتها".
3. سُلطة ونطاق مجلس الإشراف
يتمتع المجلس بسلطة مراجعة القرارات التي تقدمها Meta للمراجعة (المادة 2، القسم 1 من اتفاقية المجلس؛ المادة 2، القسم 2.1.1 من اللائحة الداخلية).
يجوز للمجلس تأييد قرار شركة Meta أو إلغائه (المادة 3، القسم 5 من اتفاقية المجلس)، ويكون قراره بهذا الشأن ملزمًا للشركة (المادة 4 من اتفاقية المجلس). يجب على شركة Meta أيضًا تقييم جدوى تطبيق قرارها على أي محتوى مماثل له سياق موازٍ (المادة 4 من اتفاقية المجلس). وقد تتضمن قرارات المجلس بيانات استشارية بشأن السياسية تضم توصيات غير ملزمة يجب على شركة Meta الرد عليها (اتفاقية المجلس، المادة 3، القسم 4؛ المادة 4).
4.مصادر السُلطة
أخذ مجلس الإشراف السلطات والمعايير التالية في الاعتبار:
1. قرارات مجلس الإشراف:
تتضمن قرارات مجلس الإشراف السابقة الأكثر ارتباطًا بهذه الحالة ما يلي:
- قرار حالة "فيديو صادم بشأن السودان" (2022-002-FB-MR): في هذه الحالة، التي تناولت نشر المحتوى الصادم لتعزيز الوعي بانتهاكات حقوق الإنسان، خلُص المجلس إلى أن "استثناء الأهمية الإخبارية ليس كافيًا للسماح بهذا النوع من المحتوى على فيسبوك على نطاق واسع." وأوصى أن تقوم Meta بتضمين استثناء في معيار مجتمعها لتأكيد تطبيق هذا الاستثناء على نطاق واسع. يرى المجلس أيضًا أن "الافتقار إلى الوضوح فيما يتعلق بحالات وكيفية تطبيق استثناء الأهمية الإخبارية سيؤدي على الأرجح إلى تطبيق هذه السياسة بشكل عشوائي." أوضح المجلس أن الشاشات التحذيرية يمكن أن تمثل حلاً متناسبًا، لأنها لا "تشكّل عبئًا غير ضروري على الأشخاص الذين يرغبون في مشاهدة المحتوى كما أنها تخبر الآخرين بطبيعة المحتوى وتسمح لهم بتحديد ما إذا كانوا يريدون رؤيته أم لا. وتوفر الشاشة التحذيرية أيضًا نفس القدر من الحماية لكرامة الشخص الذي تم تصويره وعائلته."
- قرار حالة "الاحتجاجات في كولومبيا": ( 2021-010-FB-UA): في هذه الحالة، أوصى المجلس بأن تتولى Meta "تطوير ونشر معايير تصعيد واضحة لمراجعي المحتوى لإجراء مراجعة إضافية للمحتوى المتعلق بالمصلحة العامة." في رأيه الاستشاري بشأن السياسة حول مشاركة معلومات محل الإقامة الخاصة، كرر المجلس هذه التوصية.
- قرار حالة "مشروب آياهواسكا" ( 2021-013-IG-UA): في هذه الحالة، قرر المجلس ضرورة إبقاء المحتوى على الرغم من حظر السياسة ذات الصلة له. وقد كان السماح بالمحتوى يتماشى مع قيم Meta ومسؤولياتها تجاه حقوق الإنسان، وقد أوصى المجلس Meta بتغيير سياساتها لتتفق مع قيمها ومسؤولياتها تجاه حقوق الإنسان.
- قرار حالة "كارتون كنين" ( 2022-001-FB-UA): في هذه الحالة، قال المجلس أنه، لمساعدة المستخدمين على فهم طريقة التعامل مع المحتوى الخاص بهم، يجب أن توفر Meta معلومات أكثر تفصيلاً عن عملية التصعيد.
2. سياسات المحتوى لدى Meta:
إرشادات مجتمع Instagram
تنص إرشادات مجتمع Instagram، تحت عنوان "اتباع القانون"، على أن Instagram "لا يتسامح على الإطلاق مع مشاركة محتوى جنسي يشتمل على قُصَّر أو يهدد بنشر صور حميمية للآخرين." تحتوي كلمات "صور حميمية" على رابط إلى معايير مجتمع فيسبوك بشأن الاستغلال الجنسي للبالغين في مركز شفافية Meta. لا تتناول إرشادات المجتمع بشكل صريح صور الجنس بالإكراه.
معايير مجتمع فيسبوك
في مبادئ سياسة الاستغلال الجنسي للبالغين، تقر Meta "بأهمية فيسبوك كساحة للنقاش ولفت انتباه الأشخاص إلى الاستغلال والعنف الجنسي." لذلك، فإنها "تتيح الفرصة للضحايا لمشاركة تجاربهم، وفي الوقت نفسه تزيل المحتوى الذي يصور أو يُهدد أو يروج للعنف الجنسي أو الاعتداء الجنسي أو الاستغلال الجنسي." لحماية الضحايا والناجين، فإن Meta تزيل "الصور التي تسجل حوادث الاعتداء الجنسي والصور الحميمية التي تتم مشاركتها دون موافقة من الشخص [الأشخاص] الذين يتم تصويرهم."
ينص القسم الذي يحمل العنوان "يجب عدم نشر" من معايير المجتمع على أنه يزال من المنصة أي محتوى يتألف من "أي شكل من أشكال التلامس الجنسي بالإكراه"، مثل "حالات التصوير (بما في ذلك الصور/مقاطع الفيديو الحقيقية عدا في سياق الأعمال الفنية الواقعية)". تنص هذه السياسة أيضًا على أن Meta "يجوز لها تقييد ظهور المحتوى أمام الأشخاص دون 18 عامًا وتضمين تسمية تحذيرية مع بعض مقاطع الفيديو الخيالية [...] التي تصوّر التلامس الجنسي بالإكراه."
في مركز الشفافية، توضح Meta أن احتساب إنذار "يعتمد على مدى خطورة المحتوى، والسياق الذي تمت مشاركة المحتوى فيه وتوقيت نشره." وتهدف Meta إلى أن يتسم نظام الإنذارات لديها "بالعدالة التناسب."
استثناء الأهمية الإخبارية
في تعريف استثناء الأهمية الإخبارية في مركز الشفافية، توضح Meta أنها تسمح "بالمحتوى الذي قد ينتهك معايير فيسبوك أو إرشادات مجتمع Instagram، إذا كان له أهمية إخبارية أو إذا كان إبقائه معروضًا على المنصة يخدم المصلحة العامة." ولا تفعل Meta ذلك إلا"بعد إجراء مراجعة شاملة توازن بين المصلحة العامة ومخاطر حدوث الضرر" وتلقي نظرة على "المعايير الدولية لحقوق الإنسان، كما تنعكس في سياسة حقوق الإنسان في شركتنا، للمساعدة على اتخاذ تلك القرارات." تنص السياسة على أنه "يمكن تعيين استثناء الأهمية الإخبارية للمحتوى الوارد من جميع المصادر، بما في ذلك المنافذ الإخبارية أو السياسيين أو أشخاص آخرين" و"على الرغم من أنه يمكن وضع شخصية المتحدث في الاعتبار عند إجراء اختبار الموازنة، فإننا لا نفترض أن خطاب أي شخص يتمتع بأهمية إخبارية بطبيعته." عند تطبيق استثناء الأهمية الإخبارية وإعادة المحتوى، لكنه لا يزال حساسًا أو مزعجًا، فقد تتضمن الاستعادة شاشة تحذيرية.
عند الموازنة بين المصلحة العامة وخطر حدوث الضرر، تأخذ Meta العوامل التالية في الحسبان: ما إذا كان المحتوى يشكل تهديدات وشيكة على السلامة أو الصحة العامة؛ وما إذا كان المحتوى يعرض وجهات نظرًا تتم مناقشتها حاليًا كجزء من عملية سياسية؛ والأوضاع في البلد المعني (على سبيل المثال، وجود انتخابات جارية، أو خوض البلد لحرب)؛ وطبيعة الخطاب، بما في ذلك مدى ارتباطه بالحوكمة والسياسة؛ والهيكل السياسي في البلد، بما في ذلك حرية الصحافة بها.
3. قيم شركة Meta:
تم توضيح قيم شركة Meta في مقدمة معايير مجتمع فيسبوك. وقد جرى وصف قيمة "حرية الرأي" بأنها "ذات أهمية قصوى":
يتمثل هدف معايير مجتمعنا دائمًا في توفير مكان لحرية الرأي يستطيع الأشخاص من خلاله إبداء وجهات نظرهم. [...] ونحن نريد أن يتمتع الأشخاص بالقدرة على التحدث بحرية عن القضايا التي تهمهم، حتى في حالة عدم اتفاق البعض أو اعتراضهم.
تقيد شركة Meta "حرية الرأي" لصالح أربع قيم، والقيم التي تهمنا في هذه الحالة هي "السلامة" و"الخصوصية" و"الكرامة":
"السلامة": نحن ملتزمون بجعل فيسبوك مكانًا آمنًا. إن المحتوى الذي يحمل تهديدًا للأشخاص قد يتسبب في إخافة الآخرين أو إقصائهم أو إسكاتهم ونحن لا نسمح بذلك على فيسبوك.
"الخصوصية": نحن ملتزمون بحماية الخصوصية والمعلومات الشخصية. وذلك لأن الخصوصية تمنح الأشخاص حرية التعبير عن ذواتهم الحقيقية، واختيار طريقة وتوقيت المشاركة على فيسبوك والتواصل بسهولة أكبر.
"الكرامة": نحن نؤمن بأن الأشخاص متساوون في الكرامة والحقوق. ونتوقع من الجميع احترام كرامة الآخرين وعدم الإساءة إليهم أو الحط من قدر الآخرين.
4. المعايير الدولية لحقوق الإنسان:
تُرسي مبادئ الأمم المتحدة التوجيهية بشأن الأعمال التجارية وحقوق الإنسان (UNGP)، التي أقرها مجلس حقوق الإنسان التابع للأمم المتحدة عام 2011، إطار عمل تطوعي لمسؤوليات الأنشطة التجارية الخاصة فيما يتعلق بحقوق الإنسان. في عام 2021، أعلنت شركة Meta عن سياسة حقوق الإنسان الخاصة بالشركة، والتي أعادت التأكيد من خلالها على الالتزام باحترام حقوق الإنسان على نحو يتفق مع مبادئ الأمم المتحدة التوجيهية بشأن الأعمال التجارية وحقوق الإنسان. وقد استند تحليل المجلس لمسؤوليات شركة Meta تجاه حقوق الإنسان في هذه الحالة إلى معايير حقوق الإنسان التالية:
- الحق في حرية التعبير: المادة 19 من العهد الدولي الخاص بالحقوق المدنية والسياسية (ICCPR)، التعليق العام رقم 34، اللجنة المعنية بحقوق الإنسان، 2011؛ تقارير مقرر الأمم المتحدة الخاص المعني بحرية الرأي والتعبير: A/HRC/38/35 (2018).
- الحق في الحياة: المادة 6، العهد الدولي الخاص بالحقوق المدنية والسياسية.
- الحق في الخصوصية: المادة 17، العهد الدولي الخاص بالحقوق المدنية والسياسية.
- الحق في عدم التعرض للتمييز: المادة 2، الفقرة 1، العهد الدولي الخاص بالحقوق المدنية والسياسية؛ المادة 1، اتفاقية القضاء على جميع أشكال التمييز ضد المرأة ( CEDAW)؛ التوصية العامة رقم 35 بشأن العنف ضد المرأة على أساس الجنس، لجنة الأمم المتحدة للقضاء على التمييز ضد المرأة؛ التوصية العامة رقم 35، بشأن التصدي للخطاب العنصري الذي يحض على الكراهية، لجنة القضاء على التمييز العنصري، (CERD)؛
- الحق في الصحة البدنية والنفسية: المادة 12، العهد الدولي الخاص بالحقوق الاقتصادية والاجتماعية والثقافية (ICESCR).
- حقوق الطفل: المادة 3، اتفاقية حقوق الطفل (CRC) بشأن المصلحة الفضلى للطفل؛ المادة 17 والمادة 19، اتفاقية حقوق الطفل، بشأن حقوق الأطفال في الحماية من كافة أشكال العنف البدني والنفسي؛ التعليق العام رقم 25، لجنة حقوق الطفل، 2021.
5. المعلومات المقدَّمة من المستخدمين
بعد إحالة شركة Meta الحالة وقبول المجلس لها، تم إرسال رسالة إلى المستخدم لإخطاره بمراجعة المجلس ومنحه فرصة لتقديم بيان إلى المجلس. ولم يقدم المستخدم بيانًا.
6. المعلومات المقدَّمة من Meta
في الحيثيات المقدمة بشأن هذه الحالة، أوضحت Meta أن الشرح التوضيحي وخلفية المستخدم الذي نشر المحتوى بيّنت أن الغرض كان إدانة العنف ضد المجتمعات المهمشة وتعزيز الوعي به. ومع هذا، لا يوجد استثناء مناسب لهذا في سياسة الاستغلال الجنسي للبالغين.
وفيما يتعلق بقرار تطبيق استثناء الأهمية الإخبارية، أوضحت Meta أن قيمة المصلحة العامة للمحتوى كانت أعلى لأن مشاركة المحتوى تمت بواسطة مؤسسة إخبارية تسلط الضوء على قصص السكان المهمشين والأقل تمثيلاً. قالت Meta إن مشاركة المحتوى على ما يبدو تهدف إلى إدانة السلوك الذي ظهر في الفيديو وتعزيز الوعي بالعنف ضد النساء القبليات على أساس الجنس. تقول Meta إن أصوات الأديفاسي والفئات المهمشة قد تعرضت للقمع تاريخيًا في الهند وإنها تستفيد من زيادة الوصول والظهور. قالت Meta أيضًا أن خطر الضرر كان محدودًا لأن الفيديو لم يتضمن عُريًا أو نشاطًا جنسيًا صريحًا، ولم يكن يثير المشاعر. وقالت إن "الحالة كانت استثنائية لأن وجه الضحية لم يظهر ولا يمكن تحديد هويتها بسهولة."
في ردها على سؤال من المجلس، أوضحت Meta أن "وصف المستخدم نفسه كمؤسسة إخبارية قد أُخذ في الحسبان، لكنه لم يكن العامل الحاسم، لاتخاذ قرار بشأن معاملته كمؤسسة إخبارية." يقرر الخبراء المتخصصون ومتخصصو السوق الإقليمي المستخدمين المؤهلين كمؤسسات إخبارية، استنادًا إلى مجموعة متنوعة من العوامل، بما في ذلك معرفتهم بالسوق والتصنيفات السابقة للمؤسسات. قالت Meta إن قرارها وسياستها يتفقان مع قيمها ومسؤولياتها تجاه حقوق الإنسان.
وبلغت الأسئلة التي طرحها المجلس على Meta في هذه الحالة 15 سؤالاً. أجابت Meta عن 14 سؤالاً بالكامل ولم تجب عن سؤال واحد. طلب المجلس أن تشارك Meta معه تقرير تقييم التأثير على حقوق الإنسان في الهند، وهو ما رفضته Meta، متعللة بمخاطر أمنية. لم تقدم Meta تفسيرًا مُرضيًا عن كيف ستؤدي مشاركة تقرير تقييم التأثير على حقوق الإنسان مع المجلس إلى مخاطر أمنية.
7. التعليقات العامة
درس مجلس الإشراف 11 تعليقًا عامًا ذا صلة بهذه الحالة. تم تقديم تعليق واحد من منطقة آسيا والمحيط الهادئ والأوقيانوس، وأربعة تعليقات من وسط وجنوب آسيا، وثلاثة تعليقات من أوروبا، وثلاثة تعليقات من الولايات المتحدة وكندا.
تناولت التعليقات المقدمة الموضوعات التالية: تهميش الأديفاسي في الهند؛ وعلاقات القوة في النظام الطبقي؛ واحتمال أن يؤدي تصوير العنف إلى تشجيع الجناة والإسهام في العنف؛ والفرق بين العنف الجنسي وغير الجنسي وأهمية التقييمات السياقية فيما يتعلق بالعنف الجنسي؛ وخطر تعرض ضحايا التحرش الجنسي للنبذ من مجتمعاتهم؛ وتقاطع أشكال التمييز؛ ومخاطر تعرض الناجين من الاعتداءات الجنسية للصدمة؛ والآثار الضارة للخطاب الذي يحض على الكراهية على وسائل التواصل الاجتماعي في الهند؛ وأهمية وسائل التواصل الاجتماعي كوسيلة لتعزيز الوعي بالعنف ضد الفئات المهمشة؛ وأهمية احتفاظ Meta بذاكرة تخزين مؤقت أمنة للغاية للمحتوى الذي تمت إزالته يمكن لمسؤولي إنفاذ القانون الوصول إليها.
لقراءة التعليقات العامة المقدمة في هذه الحالة، يرجى النقر هنا.
8.تحليل مجلس الإشراف
نظر المجلس في مسألة ما إذا كان ينبغي استعادة هذا المحتوى من خلال ثلاث رؤى: سياسات المحتوى لدى شركة Meta، وقيَمها، ومسؤولياتها تجاه حقوق الإنسان.
8.1 الامتثال لسياسات المحتوى لدى شركة Meta
يرى المجلس أنه يمكن تطبيق استثناء الأهمية الإخبارية في هذه الحالة، لكنه لا يوفر معيارًا واضحًا أو عملية فعّالة لتقييم هذا النوع من المحتوى على نطاق واسع. لذلك يوصي المجلس، بالإضافة إلى استثناء الأهمية الإخبارية، كاستثناء عام لأي سياسة، أن تقوم Meta بتضمين استثناء لسياسة الاستغلال الجنسي للبالغين، من شأنه أن يوفر عملية واضحة وفعّالة للإشراف على المحتوى على نطاق واسع.
ترى غالبية أعضاء المجلس أن المحتوى في هذه الحالة كان سيُسمح به بموجب هذا الاستثناء، في حين ترى الأقلية أنه لم يكن ينبغي تطبيق أي استثناء على هذا المحتوى تحديدًا وكان من الأجدر إزالته من المنصة.
1.قواعد المحتوى والإنفاذ
يتفق المجلس مع تقييم Meta من أن المحتوى في هذه الحالة ينتهك الحظر الذي يفرضه معيار الاستغلال الجنسي للبالغين على تصوير التلامس الجنسي بالإكراه.
تتفق غالبية أعضاء المجلس مع مضمون منطق Meta لإعادة المحتوى وترى أن تطبيق استثناء الأهمية الإخبارية كان ممكنًا في هذه الحالة نظرًا لأن المحتوى يشكل قيمة كبيرة للمصلحة العامة. مع هذا، يرى المجلس أن استثناء الأهمية الإخبارية لا يوفر معيارًا أو عملية كافية لتقييم المحتوى المشابه للمنشور المعني في هذه الحالة على نطاق واسع، لأنه لا يضمن التطبيق الفعّال أو الموحد.
يتفق المجلس مع تقييم Meta لوجود قيمة كبيرة للمصلحة العامة في الإبقاء على هذا المحتوى على المنصة، لأنه يعزز الوعي بالعنف ضد مجتمع مهمش. يتفق المجلس أيضًا على أن ترك محتوى على المنصة يصوّر تلامسًا جنسيًا بالإكراه، بما في ذلك اعتداء، قد يشكّل خطرًا كبيرًا لحدوث ضرر (راجع القسم 8.3، أدناه). يتفق المجلس كذلك مع Meta على أنه في الحالات التي يمكن فيها تحديد هوية ضحية التلامس الجنسي بالإكراه، يكون الضرر المحتمل كبيرًا أيضًا وينبغي إزالة المحتوى بوجه عام، وبشكل مؤكد إذا تم نشره دون موافقة الضحية.
في هذه الحالة، مع ذلك، لا يتفق المجلس على مدى إمكانية تحديد هوية الضحية. يرى غالبية أعضاء المجلس أنه لا يمكن تحديد هوية الضحية. وجه الضحية لا يظهر في الفيديو، حيث تم التقاط الفيديو من مسافة وبجودة سيئة بوجه عام. ولا يوفر الشرح التوضيحي أي معلومات عن هوية الضحية. ترى الأقلية أنه ينبغي إزالة المحتوى من المنصة على أساس احتمال إمكانية تحديد هوية الضحية. فقد يتمكن مشاهدو الفيديو ممن لديهم دراية محلية بالمنطقة أو الحادث من تحديد هوية الضحية حتى مع عدم ظهور وجهها. وترى الأقلية أن هذا الاحتمال وارد بشكل كبير، لا سيّما مع نقل الحادث على نطاق واسع من قِبل وسائل الإعلام المحلية. وتقر الغالبية بمخاوف الأقلية لكنها ترى أن الوعي المحلي بحادث ما لا ينبغي، في حد ذاته، أن يعني أنه يمكن "تحديد هوية" الضحية.
يوصي المجلس بأن تراجع Meta سياساتها وعملياتها استنادًا إلى قيمها ومسؤولياتها تجاه حقوق الإنسان، وفق التحليل الوارد في القسمين 8.2 و8.3 أدناه، وأن تستحدث استثناءً محددًا بوضوح في معيار الاستغلال الجنسي للبالغين يمكن تطبيقه بطريقة أكثر اتساقًا وفعّالية من استثناء الأهمية الإخبارية.
2.الشفافية
بعد توصيات المجلس في القرارات الصادرة بشأن حالة "الاحتجاجات في كولومبيا" و"فيديو صادم بشأن السودان"، قدمت Meta معلومات أكثر في مركز الشفافية عن العوامل التي تأخذها في الحسبان عندما تقرر ما إذا كان عنصر المحتوى مؤهلاً لتطبيق استثناء الأهمية الإخبارية أم لا. ومع هذا، فإنها لم تضع أو تنشر "معايير واضحة يستند إليها المراجعون في تصعيد المحتوى من أجل مراجعة ثانية إذا كان يخدم المصلحة العامة ويتضمن انتهاكات محتملة لمعايير المجتمع ويمكن تطبيق استثناء الأهمية الإخبارية عليه،" كما أوصى المجلس في قراره بشأن حالة "الاحتجاجات في كولومبيا"، ورأيه الاستشاري بشأن السياسة فيما يتعلق بمشاركة معلومات محل الإقامة الخاصة. يكرر المجلس مخاوفه بشأن ضرورة تقديم Meta المزيد من المعلومات عن عملية التصعيد في سياق استثناء الأهمية الإخبارية.
8.2 الامتثال لقيم شركة Meta
في هذه الحالة، كما في الكثير من الحالات، قد تتعارض قيم "حرية الرأي" و"الخصوصية" و"السلامة" و"الكرامة".
يخدم تعزيز الوعي بالانتهاكات ضد الأديفاسي قيمة "حرية الرأي" وقد يساعد أيضًا على حماية سلامة وكرامة الأديفاسي. على الجانب الآخر، فإن نشر أخبار الاعتداء الجنسي قد يحظى بعدم ترحيب من الضحية أو قد يروّج هذا السلوك، مما يؤدي إلى آثار سلبية على خصوصية وكرامة وسلامة الضحية أو الأشخاص الآخرين في مجتمعها.
نظرًا لأن الفيديو في هذه الحالة لم يكن واضحًا واعتبر معظم أعضاء المجلس أنه لا يمكن تحديد هوية الضحية، ترى الغالبية أن ترك الفيديو على المنصة يتفق مع قيم Meta، ككل. ومع ذلك، تؤكد أقلية من أعضاء المجلس أنه حتى إذا كانت احتمالية تحديد هوية الضحية منخفضة، فلا يزال هناك خطر حقيقي لتحديد هويتها. من وجهة نظرهم، يجب تغليب المخاوف بشأن خصوصية وكرامة وسلامة الضحية، وبالتالي ينبغي إزالة الفيديو.
8.3 الامتثال لمسؤوليات شركة Meta تجاه حقوق الإنسان
ترى غالبية أعضاء المجلس أن إبقاء هذا المحتوى على المنصة يتفق مع مسؤوليات Meta تجاه حقوق الإنسان. ألزمت شركة Meta نفسها باحترام حقوق الإنسان بموجب مبادئ الأمم المتحدة التوجيهية بشأن الأعمال التجارية وحقوق الإنسان (UNGP). وتنص سياسة حقوق الإنسان الخاصة بالشركة على أن هذا الالتزام يتضمن احترام العهد الدولي الخاص بالحقوق المدنية والسياسية (ICCPR).
حرية التعبير (المادة 19 من العهد الدولي الخاص بالحقوق المدنية والسياسية)
إن نطاق الحق في حرية التعبير هو نطاق واسع. توفر المادة 19، الفقرة 2، من العهد الدولي الخاص بالحقوق المدنية والسياسية حماية أكبر للتعبير عن القضايا السياسية (التعليق العام رقم 34، الفقرتان 20 و49). توفر الاتفاقية الدولية للقضاء على جميع أشكال التمييز العنصري (ICERD) الحماية أيضًا لممارسة الحق في حرية التعبير (المادة 5). أكدت لجنة القضاء على التمييز العنصري على أهمية الحق فيما يتعلق بمساعدة "الفئات الضعيفة على تصحيح توازن القوى بين مكونات المجتمع" وتقديم "آراء ووجهات نظر بديلة" في المناقشات (لجنة القضاء على التمييز العنصري، التوصية العامة رقم 35، الفقرة 29). يبدو أن مشاركة المحتوى في هذه الحالة كان لتعزيز الوعي بالعنف ضد نساء الأديفاسي في الهند، وبالتالي فهو يحظى بقدر كبير من الحماية وفقًا للمعايير الواردة في التعليق العام رقم 34.
بموجب المادة 19، الفقرة 3 من العهد الدولي الخاص بالحقوق المدنية والسياسية، يجب أن تكون القيود المفروضة على حرية التعبير (1) منصوص عليها في القانون، و(2) تسعى إلى تحقيق هدف مشروع، و(3) ضرورية ومتناسبة. لا يفرض العهد الدولي الخاص بالحقوق المدنية والسياسية التزامات مُلزمة على Meta كما يفعل مع الدول، لكن هذا الاختبار الثلاثي قد جرى اقتراحه من قبل مقرر الأمم المتحدة الخاص المعني بحرية التعبير كإطار تسترشد به الممارسات التي تتبعها المنصات للإشراف على المحتوى ( A/HRC/38/35).
1. الشرعية (وضوح القواعد وسهولة الوصول إليها)
يجب أن تكون القواعد التي تضع قيودًا على حرية التعبير واضحة ويسهل الوصول إليها حتى يتسنى لمن تنطبق عليهم هذه القواعد معرفتها والالتزام بها (التعليق العام رقم 34، الفقرتان 24 و25). وبتطبيق ذلك على شركة Meta، يجب أن يتمكن مستخدمو منصاتها ومراجعوها الذين يتولون إنفاذ تلك القواعد من فهم الأشياء المسموح بها والأشياء المحظورة. في هذه الحالة، خلُص المجلس إلى أن شركة Meta لا تفي بهذه المسؤولية.
يرى المجلس أن صيغة سياسة الأهمية الإخبارية مبهمة وتترك سلطة تقديرية كبيرة لمن يطبقها. كما أشار المجلس في حالة "فيديو صادم بشأن السودان" (2022-002-FB-MR)، يؤدي عدم وضوح المعايير إلى التطبيق العشوائي ولا يضمن تحقيق التوازن المناسب بين الحقوق المتأثرة عند الإشراف على المحتوى.
لفت المجلس أيضًا الانتباه مرارًا وتكرارًا إلى افتقار مستخدمي Instagram إلى الوضوح بشأن السياسات التي تنطبق على المحتوى الخاص بهم، لا سيّما مدى انطباق سياسات فيسبوك عليهم ومتى يتم تطبيقها (راجع، على سبيل المثال، قرارات المجلس في حالة "أعراض سرطان الثدي والعُري" (2020-004-IG-UA)، وحالة "آياهواسكا" (2021-013-IG-UA)). يكرر المجلس مخاوفه بهذا الشأن هنا.
يكرر المجلس التأكيد على الحاجة الماسة إلى مزيد من المعلومات حول المعايير، والإرشادات والعمليات الداخلية التي تحدد متى يتم تصعيد المحتوى (راجع، على سبيل المثال، قرار المجلس بشأن حالة "الاحتجاجات في كولومبيا"، وحالة "فيديو صادم بشأن السودان"، وحالة "كارتون كنين"). لكي يفهم المستخدمون ما إذا كان سيتم تطبيق استثناء الأهمية الإخبارية على المحتوى وكيف سيتم تطبيقه، يجب على Meta تقديم معلومات أكثر تفصيلاً عن عملية التصعيد.
2.الهدف المشروع
بموجب المادة 19، الفقرة 3 من العهد الدولي الخاص بالحقوق المدنية والسياسية، يجوز تقييد حرية التعبير بغرض حماية "حقوق الآخرين." تهدف سياسة الاستغلال الجنسي للبالغين إلى منع الإساءة وإعادة الإيذاء والوصم الاجتماعي ونشر المعلومات الشخصية على الإنترنت وغيرها من أشكال الإساءة. وتخدم حماية الحق في الحياة (المادة 6، العهد الدولي الخاص بالحقوق المدنية والسياسية)، والحق في الخصوصية (المادة 17، العهد الدولي الخاص بالحقوق المدنية والسياسية) والحق في الصحة البدنية والنفسية (المادة 12، العهد الدولي الخاص بالحقوق الاقتصادية والاجتماعية والثقافية "ICESCR"). وتسعى أيضًا إلى تحقيق الهدف المتمثل في الحد من التمييز والعنف على أساس الجنس (المادة 2، الفقرة 1، العهد الدولي الخاص بالحقوق المدنية والسياسية، والمادة 1، اتفاقية القضاء على جميع أشكال التمييز ضد المرأة "CEDAW").
من خلال تطبيق شاشة تحذيرية، تسعى Meta إلى تحقيق الهدف المشروع المتمثل في الحد من الضرر الموصوف أعلاه، وحماية المستخدمين الآخرين. يهدف التحذير الذي يظهر على الشاشة إلى حماية ضحايا التحرش الجنسي من التعرض لمحتوى يحتمل أن يكون مزعجًا أو صادمًا أو أن يتسبب في إصابتهم بصدمة (المادة 12، العهد الدولي الخاص بالحقوق الاقتصادية والاجتماعية والثقافية "ICESCR"). يسعى التقييد حسب العمر أيضًا إلى تحقيق الهدف المشروع المتمثل في حماية الأطفال من المحتوى الضار (المواد 3 و17 و19، اتفاقية حقوق الطفل).
3. الضرورة والتناسب
يقتضي مبدأ الضرورة والتناسب أن تكون أي تقييدات يتم فرضها على حرية التعبير "مناسبة لتحقيق وظيفتها الحمائية، ويجب أن تكون أقل الوسائل تدخلاً مقارنة بغيرها من الوسائل التي يمكن أن تحقق النتيجة المنشودة؛ [و] يجب أن تكون متناسبة مع المصلحة التي ستحميها" (التعليق العام رقم 34، الفقرة 34).
في هذه الحالة، ترى الغالبية أن إزالة المحتوى لم تكن ضرورية أو متناسبة في حين ترى أن تطبيق شاشة تحذيرية وتقييدًا حسب العمر يفي بمتطلبات هذا الاختبار. ترى أقلية من أعضاء المجلس أن إزالة المحتوى كانت ضرورية ومتناسبة. ويرى المجلس أن مسؤوليات Meta تجاه حقوق الإنسان تقتضي توفير معايير أوضح وعمليات إنفاذ أكثر فعّالية للسماح بالمحتوى على المنصة في الحالات المشابهة للحالة التي بين أيدينا. لذلك فقد أوصى المجلس Meta بتضمين استثناء محدد بوضوح في معيار الاستغلال الجنسي للبالغين، والذي سيشكل طريقة أفضل للموازنة بين الحقوق المتنافسة على نطاق واسع. كاستثناء عام يندر تطبيقه، سيظل استثناء الأهمية الإخبارية متوفرًا، ويتيح لشركة Meta تقييم ما إذا كانت المصلحة العامة تفوق مخاطر حدوث ضرر بما في ذلك في الحالات التي يمكن فيها تحديد هوية الضحية.
قرار الإبقاء على المحتوى
يدرك المجلس أن هذا النوع من المحتوى قد يؤدي إلى أضرار كبيرة. وهذا يشمل الأضرار التي تلحق بالضحية، والتي يمكن، حال تم تحديد هويتها، أن تعاني من إعادة الإيذاء، والوصم الاجتماعي، ونشر المعلومات الشخصية وأشكال أخرى من الإساءة أو المضايقة (راجع PC-10802 (مؤسسة الحقوق الرقمية)). تكون شدة الأضرار المحتملة كبيرة عند تحديد هوية الضحية. عندما لا يمكن تحديد هوية الضحية، ينخفض احتمال حدوث ضرر بشكل كبير. في هذه الحالة، ترى الغالبية أن احتمال تحديد هوية الضحية منخفض. حتى إذا لم يتم التعرف على الضحية علنًا، فقد تتعرض الضحية للأذى من خلال التفاعل مع المحتوى الموجود على المنصة ومن خلال التعليقات وإعادة مشاركة هذا المحتوى. ترى الغالبية أن تطبيق شاشة تحذيرية على المحتوى يعالج هذه المخاوف.
نظر المجلس أيضًا في الأضرار الأوسع نطاقًا. تتعرض وسائل التواصل الاجتماعي في الهند لانتقادات بسبب نشرها لخطاب يحض على الكراهية الطبقية (راجع تقرير حول خطاب الكراهية الطبقي الذي أصدرته شبكة التضامن الدولية للداليت، مارس 2021). يمكن أن يعكس المحتوى على الإنترنت هياكل السلطة الحالية ويعززها، ويشجّع الجناة ويحفز العنف ضد الفئات الضعيفة من السكان. يمكن أن يؤدي تصوير العنف ضد المرأة إلى مواقف أكثر تقبلًا لهذا العنف. سلطت التعليقات العامة الضوء على أن التحرش الجنسي هو شكلٍ قاسٍ من أشكال التحرش (راجع، على سبيل المثال، PC-10808 (SAFEnet)، وPC-10806 (تكنولوجيا المعلومات من أجل التغيير)، وPC-10802 (مؤسسة الحقوق الرقمية)، وPC-10805 (وسائل الإعلام مهمة من أجل الديمقراطية)).
وازنت الغالبية هذه المخاطر مع حقيقة أنه من المهم أن تتمتع المؤسسات الإخبارية والناشطين بالقدرة على الاعتماد على وسائل التواصل الاجتماعي لزيادة الوعي بالعنف ضد المجتمعات المهمشة (انظر التعليقات العامة PC-10806 (تكنولوجيا المعلومات من أجل التغيير)، وPC-10802 (مؤسسة الحقوق الرقمية)، وPC-10808 (SAFEnet))، خاصة في سياق تتعرض فيه حرية وسائل الإعلام للتهديد (راجع تقرير هيومن رايتس ووتش). في الهند، يعاني أفراد مجتمعات الداليت والأديفاسي، لا سيّما النساء اللاتي يجتمع عليهن النظام الطبقي والجنس (راجع PC-10806، (تكنولوجيا المعلومات من أجل التغيير))، من تمييز شديد، مع تزايد الجرائم المرتكبة بحقهم. أبلغت منظمات المجتمع المدني عن تصاعد مستويات التمييز العرقي والديني ضد الأقليات غير الهندوسية والطائفية وهو ما يقوض الحماية المتكافئة التي يكفلها القانون (راجع تقرير هيومن رايتس ووتش). مع استهداف الحكومة للمؤسسات الإخبارية المستقبلة، وعدم تسجيل كل الجرائم المرتكبة ضد أفراد ومجتمعات الداليت والأديفاسي في السجلات الرسمية، تصبح وسائل التواصل الاجتماعي وسيلة مهمة لتوثيق التمييز والعنف (راجع تقرير هيومن رايتس ووتش والتعليقات العامة المذكورة أعلاه).
لا يوافق المجلس في النهاية على مسألة ما إذا كان تحديد هوية الضحية، في هذه الحالة بالذات، يمثل أي خطر معقول. ترى الغالبية أن هذا الخطر ضئيل للغاية وبالتالي فإن إبقاء المحتوى على المنصة يفوق الأضرار المحتملة إذا تم وضع شاشة تحذيرية. ترى الأقلية أن الخطر المتبقي يقتضي إزالة المحتوى من المنصة.
الشاشة التحذيرية والتقييد حسب العمر
يرى المجلس أن تطبيق شاشة تحذيرية يعد "تقييدًا أقل حدة" مقارنة بالإزالة. في هذه الحالة، ترى الغالبية أن تطبيق شاشة تحذيرية قد يشكّل أقل الطرق تدخلاً للتخفيف من الأضرار المحتملة التي يسببها المحتوى مع حماية حرية التعبير في الوقت ذاته. كما خلُص المجلس في حالة "فيديو صادم بشأن السودان"، "لا تشكّل الشاشة التحذيرية عبئًا غير ضروري على الأشخاص الذين يرغبون في مشاهدة المحتوى كما أنها تخبر الآخرين بطبيعة المحتوى وتسمح لهم بتحديد ما إذا كانوا يريدون رؤيته أم لا." علاوة على ذلك، "توفر الشاشة التحذيرية أيضًا نفس القدر من الحماية لكرامة الشخص الذي تم تصويره وعائلته." ترى الأقلية أن الشاشة التحذيرية لا تخفف الأضرار المحتملة بالقدر الكافي وأن شدة هذه الأضرار تقتضي إزالة المحتوى.
وتؤدي الشاشة التحذيرية أيضًا إلى تفعيل تقييد حسب العمر، وذلك بهدف حماية القاصرين. ينص التعليق العام رقم 25 بشأن حقوق الأطفال فيما يتعلق بالبيئة الرقمية على أنه "يجب على الأطراف اتخاذ جميع التدابير المناسبة لحماية الأطفال من المخاطر على حقهم في الحياة والبقاء والنمو. وتشمل المخاطر المتعلقة بالمحتوى...، من بين أمور أخرى، المحتوى العنيف والجنسي..."(الفقرة 14). وينص أيضًا على ضرورة "حماية الأطفال من جميع أشكال العنف في البيئة الرقمية" (الفقرات 54 و103). تتفق غالبية أعضاء المجلس مع منطق Meta من أن التقييد حسب العمر يوفق بين هدف حماية القاصرين وهدف السماح بالمحتوى الذي تصب مشاهدته في المصلحة العامة.
تصميم السياسة وعمليات الإنفاذ
على الرغم من اتفاق الغالبية على قرار Meta النهائي بترك المحتوى على المنصة، يرى المجلس أن استثناء الأهمية الإخبارية آلية غير فعّالة عند الرغبة في تطبيقها على نطاق واسع. ويرى أعضاء المجلس بالإجماع أن السماح بتصوير العنف الجنسي ضد الفئات المهمشة على المنصة يجب أن يستند إلى سياسات واضحة وأن تصحبه إجراءات إنفاذ دقيقة بالقدر الكافي. ويجب أن يميز ذلك بين منشورات كالذي بين أيدينا، والتي تهدف إلى تعزيز الوعي، والمنشورات التي تتم مشاركتها لإدامة العنف ضد الأفراد والمجتمعات المذكورة. ويجب أن تتضمن تلك السياسات معايير واضحة لتقييم مخاطر الضرر الذي يمثله المحتوى، لمساعدة Meta على الموازنة بين الحقوق المتنافسة على نطاق واسع.
يعد استثناء الأهمية الإخبارية آلية غير فعّالة للإشراف على المحتوى على نطاق واسع (راجع قرار المجلس في حالة "فيديو صادم بشأن السودان"). ولا أدل على ذلك من ندرة استخدامه. وفقًا لشركة Meta، تم تطبيق استثناء الأهمية الإخبارية 68 مرة فقط على مستوى كل السياسات في جميع أنحاء العالم في الفترة من 1 يونيو 2021 إلى 1 يونيو 2022. ولم يصدر سوى القليل من هذا العدد لحالات تتعلق بمعيار المجتمع بشأن الاستغلال الجنسي للبالغين. توضح هذه الحالة أن عملية التصعيد الداخلية لتطبيق استثناء الأهمية الإخبارية لا يمكن الاعتماد عليها: لم يتم تصعيد المحتوى بواسطة أي مراجع يعمل على نطاق واسع ممن راجعوا المحتوى في بادئ الأمر، وتم ذلك بواسطة أحد أعضاء فريق العمليات العالمية المعنية بالمحتوى. حيث قام هذا العضو لدى علمه بإزالة المحتوى على Instagram بلفت الانتباه إلى الأمر من خلال قناة إبلاغ داخلية. في عملية الإشراف على المحتوى في Meta، تتم مراجعة معظم المحتوى بواسطة مراجعين خارجيين يعملون على نطاق واسع وليس بواسطة فِرق Meta الداخلية المتخصصة. يمكن تصعيد المحتوى لمراجعة إضافية بواسطة هذه الفِرق الداخلية المتخصصة حين يرى المراجعون الذين يعملون على نطاق واسع إمكانية تطبيق استثناء الأهمية الإخبارية - مع هذا، لا تكون عملية التصعيد فعّالة إلا عند توفير إرشادات واضحة بشأن حالات تصعيد المحتوى للمراجعين الذين يعملون على نطاق واسع. يعتبر استثناء الأهمية الإخبارية استثناءً عامًا، يمكن تطبيقه على المحتوى الذي يخالف أي من سياسات Meta. وبالتالي فهو لا يحتوي على معايير لتقييم أو موازنة الأضرار التي يمثلها المحتوى المخالف لسياسة الاستغلال الجنسي للبالغين على وجه التحديد.
إن الوسيلة الأكثر فعالية لحماية حرية التعبير والسماح للأشخاص بتعزيز الوعي بالتحرش الجنسي بالفئات المهمشة مع حماية حقوق الضحايا والمجتمعات المهمشة هي تضمين استثناء لمعيار الاستغلال الجنسي للبالغين، ليتم تطبيقه "عند التصعيد." علاوة على ذلك، يجب توجيه المراجعين الذين يعملون على نطاق واسع إلى تصعيد المحتوى عندما يحتمل أن ينطبق الاستثناء، بدلاً من الاعتماد على استثناء الأهمية الإخبارية الذي نادرًا ما يتم تطبيقه (للاطلاع على أسباب مماثلة، راجع قرار المجلس بشأن حالة "فيديو صادم بشأن السودان"). لذلك يوصي المجلس باستحداث استثناء لسياسة الاستغلال الجنسي للبالغين لحالات تصوير التلامس الجنسي بالإكراه. من شأن هذا الاستثناء السماح للمحتوى المخالف للسياسة بالبقاء على منصات Meta عندما تتوصل Meta، من خلال التحليل السياقي، إلى أن المحتوى قد جرت مشاركته لتعزيز الوعي، وأنه لا يمكن تحديد هوية الضحية، وأن المحتوى لا يشتمل على عُري، ولم تتم مشاركته في سياق مثير للمشاعر وبالتالي لا يشتمل إلا على الحد الأدنى من مخاطر الضرر بالنسبة إلى الضحية. يجب تطبيق هذه الاستثناء على مستوى التصعيد فقط، أي بواسطة فِرق Meta الداخلية المتخصصة. يجب على Meta توفير إرشادات واضحة للمراجعين الذين يعملون على نطاق واسع بشأن الحالات التي ينبغي فيها تصعيد المحتوى الذي يحتمل أن يندرج تحت هذا الاستثناء. ولا يمنع هذا الاستثناء تطبيق استثناء الأهمية الإخبارية.
إن تضمين استثناء لسياسة الاستغلال الجنسي للبالغين وتحديث الإرشادات الموجهة للمراجعين الذين يعملون على نطاق واسع سيضمن إجراء تقييم التصعيد كجزء من الإجراء القياسي الذي يمكن للمشرفين الذين يعملون على نطاق واسع تفعيله في كل حالة ذات صلة. سيظل بإمكان المراجعين الذين يعملون على نطاق واسع إزالة المحتوى الذي يصوّر التلامس الجنسي بالإكراه، ولكن مع إمكانية تصعيد المحتوى في الحالات التي يحتمل أن ينطبق فيها الاستثناء. استنادًا إلى الخبرة الإقليمية، يمكن لخبراء السياسة والسلامة اتخاذ القرار بشأن إمكانية تطبيق الاستثناء. وفي حالة عدم تطبيقه، يمكنهم تحديد مدى فرض إنذارات ونوع الإنذارات التي سيتم فرضها، إن وجدت، تماشيًا مع هدف Meta المتمثل في تطبيق الإنذارات على نحو متناسب وعادل. إن قصر تطبيق الاستثناء على الفرق المتخصصة يشجع على الاتساق وإمعان النظر في الأضرار المحتملة.
عدم التمييز
تضطلع Meta بمسؤولية احترام المساواة وعدم التمييز على منصاتها (المادة 2 والمادة 26 العهد الدولي الخاص بالحقوق المدنية والسياسية). في توصيتها العامة رقم 35، سلطت لجنة القضاء على التمييز العنصري "دور الخطاب في خلق مناخ من الكراهية العنصرية والتمييز" (الفقرة 5) واحتمال أن يؤدي الخطاب الذي يحض على الكراهية "إلى انتهاكات جماعية لحقوق الإنسان" (الفقرة 3).
يدرك المجلس وجود حالة صعبة من الشد والجذب بين السماح بالمحتوى الذي يعزز الوعي بالعنف ضد الفئات المهمشة على المنصة وإزالة المحتوى الذي يحتمل أن يضر بخصوصية وأمان شخص ينتمي إلى تلك الفئات. يرى المجلس أن وجود احتمال كبير لتعرض الأفراد للضرر يفوق فوائد تعزيز الوعي بالتحرش على Instagram. مع هذا، في هذه الحالة، ترى الغالبية، نظرًا لعدم تحديد هوية الضحية وانخفاض مخاطر الضرر الفردي، يجب أن يظل المحتوى على المنصة مصحوبًا بشاشة تحذيرية. ترى الأقلية أن الخطر غير منخفض بما يكفي وبالتالي يجب إزالة المحتوى.
9. قرار مجلس الإشراف
أيد المجلس قرار Meta بترك المحتوى على المنصة مصحوبًا بشاشة تحذيرية.
10. البيان الاستشاري بشأن السياسة
السياسة
1. ينبغي على Meta تضمين استثناء لمعيار مجتمعها بشأن الاستغلال الجنسي للبالغين لحالات تصوير التلامس الجنسي بالإكراه، عندما تتوصل Meta، من خلال التحليل السياقي، إلى أن المحتوى قد جرت مشاركته لتعزيز الوعي، وأنه لا يمكن تحديد هوية الضحية، وأن المحتوى لا يشتمل على عُري، ولم تتم مشاركته في سياق مثير للمشاعر وبالتالي لا يشتمل إلا على الحد الأدنى من مخاطر الضرر بالنسبة إلى الضحية. يجب تطبيق هذا الاستثناء عند التصعيد فقط. وسيعتبر المجلس أن هذه التوصية قد دخلت حيز التنفيذ عند تغيير صيغة معيار المجتمع بشأن الاستغلال الجنسي للبالغين.
الإنفاذ
2. ينبغي على Meta تحديث إرشاداتها الداخلية للمراجعين الذين يعملون على نطاق واسع بشأن متى يتم تصعيد المحتوى الذي جرت مراجعته بموجب معيار المجتمع بشأن الاستغلال الجنسي للبالغين، بما في ذلك الإرشادات الخاصة بتصعيد المحتوى الذي يصوّر التلامس الجنسي بالإكراه، باستثناء السياسة المذكور أعلاه. وسيعتبر المجلس أن هذه التوصية قد دخلت حيز التنفيذ عندما تشارك Meta مع المجلس الإرشادات المحدّثة للمراجعين الذين يعملون على نطاق واسع.
*ملاحظة إجرائية:
يتم إعداد قرارات مجلس الإشراف من قِبل لجان مكونة من خمسة أعضاء ويتم اعتمادها من أغلبية أعضاء المجلس. ولا يلزم بالضرورة أن تُعبّر قرارات المجلس عن وجهات النظر الشخصية لجميع الأعضاء.
بالنسبة إلى القرار المتخذ بشأن هذه الحالة، تم إجراء بحث مستقل نيابة عن المجلس. تلقى المجلس مساعدة من معهد أبحاث مستقل يقع مقره في جامعة جوتنبرج، والذي يعتمد على فريق مكون من أكثر من 50 عالم اجتماع من ست قارات، فضلاً عن أكثر من 3200 خبير محلي من جميع أنحاء العالم. وقد تلقى المجلس أيضًا مساعدة من شركة Duco Advisors، وهي شركة تركز على نقطة التقاء الجغرافيا السياسية والثقة والأمان والتكنولوجيا.
العودة إلى قرارات الحالة والآراء الاستشارية المتعلقة بالسياسة