أسقط
فيديو بعد حدوث هجوم على كنيسة في نيجيريا
ألغى المجلس قرار Meta بإزالة فيديو من Instagram يُظهر آثار هجوم إرهابي في نيجيريا.
ملخص الحالة
ألغى المجلس قرار Meta بإزالة فيديو من Instagram يُظهر آثار هجوم إرهابي في نيجيريا. فقد وجد المجلس أن استعادة المنشور مع وضع شاشة تحذيرية يحمي خصوصية الضحايا مع السماح بمناقشة الأحداث التي قد تسعى بعض البلدان إلى قمعها.
حول هذه الحالة
في 5 يونيو 2022، نشر أحد مستخدمي Instagram في نيجيريا فيديو يُظهر جثثًا هامدة ملطخة بالدماء على الأرض. ويبدو أنه جاء في أعقاب هجوم إرهابي على كنيسة في جنوب غرب نيجيريا، تسبب في مقتل ما لا يقل عن 40 شخصًا وإصابة العديد من الأشخاص. تم نشر المحتوى في يوم الهجوم نفسه. وتضمنت التعليقات على المنشور دعوات من أجل الضحايا وعبارات حول السلامة في نيجيريا.
أجرت أنظمة Meta الآلية مراجعة للمحتوى وعرضت عليه شاشة تحذيرية. لكن لم يتم تنبيه المستخدم لأن مستخدمي Instagram لا يتلقون إشعارات عند عرض شاشات تحذيرية.
أضاف المستخدم لاحقًا شرحًا توضيحيًا إلى الفيديو. وصف من خلاله الحادث بأنه "sad" (مُحزن)، واستخدم علامات هاشتاج متعددة، بما في ذلك إشارات إلى هواة جمع الأسلحة النارية، وتلميحات إلى صوت إطلاق النار، ولعبة الحركة الواقعية "airsoft" (إير سوفت) (التي تتنافس خلالها فِرق اللاعبين بالأسلحة الوهمية). قام المستخدم بتضمين علامات هاشتاج مماثلة في العديد من المنشورات الأخرى.
بعد فترة وجيزة، حدَّد أحد بنوك خدمة مطابقة الوسائط في Meta، وهو "بنك تصعيدات"، هذا الفيديو وأزاله. إذ تستطيع بنوك خدمة مطابقة الوسائط مطابقة منشورات المستخدمين تلقائيًا مع المحتوى الذي تبيَّن سابقًا انتهاكه للسياسات. وقد وجدت فِرق Meta الداخلية المتخصصة أن المحتوى الموجود في "بنك التصعيد" ينتهك السياسات. وبذلك يتم تحديد أي محتوى مطابق وإزالته على الفور.
تقدَّم المستخدم بطعن على القرار إلى Meta، لكن أحد المراجعين البشريين أيَّد قرار الإزالة. وعندها، تقدَّم المستخدم بطعن إلى المجلس.
عندما قبِل المجلس الحالة، راجعت Meta المحتوى الموجود في "بنك التصعيد"، ووجدت أنه غير مخالف، لكنها أزالته. وقد أيَّدت قرارها بإزالة المنشور في هذه الحالة، مُعلِّلةً ذلك بأنه يمكن تفسير علامات الهاشتاج على أنها "تمجيد للعنف والتقليل من معاناة الضحايا". وجدت Meta أن هذا المحتوى ينتهك سياسات متعددة، بما في ذلك سياسة المحتوى العنيف والصادم، التي تحظر الملاحظات السادية.
أهم النتائج
ترى غالبية أعضاء المجلس أن استعادة هذا المحتوى إلى Instagram تتوافق مع معايير مجتمع Meta والقيم التي تؤمن بها ومسؤوليات حقوق الإنسان.
تشهد نيجيريا سلسلة مستمرة من الهجمات الإرهابية، وقد قمعت الحكومة النيجيرية تغطية بعضها، بيد أنها لم تفعل ذلك على ما يبدو فيما يتعلق بهجوم 5 يونيو. ويوافق المجلس على أن حرية التعبير تتسم بأهمية خاصة في هذه السياقات.
بعدم النظر إلى علامات الهاشتاج، فإن المجلس يوافق بالإجماع على أنه يجب عرض شاشة تحذيرية على الفيديو. فهذا من شأنه أن يحمي خصوصية الضحايا، الذين تظهر وجوه البعض منهم، مع احترام حرية التعبير. يميز المجلس هذا الفيديو عن الصورة المعروضة في حالة "القصيدة الروسية"، التي كانت صادمة بدرجة أقل بكثير، والتي توصَّل المجلس بشأنها إلى أن عرض شاشة تحذيرية لم يكن مطلوبًا. كما أن المجلس يميز هذا الفيديو عن اللقطات الموجودة في حالة "الفيديو الصادم حول السودان"، التي كانت صادمة بدرجة أكبر بكثير، والتي وافق خلالها المجلس على قرار Meta باستعادة المحتوى مع عرض شاشة تحذيرية، مع تطبيق "استثناء الأهمية الإخبارية"، الذي يسمح بالمحتوى المخالف في حالات استثنائية.
ترى غالبية أعضاء المجلس أن كفة الميزان ما تزال تميل لصالح استعادة المحتوى عند النظر في علامات الهاشتاج، لأنها ترفع مستوى الوعي وليست سادية. إذ تُستخدم علامات الهاشتاج بشكل شائع لترويج منشور داخل المجتمع. وتُشجِّع خوارزميات Meta على ذلك، لذا يجب على الشركة أن تتوخَّى الحذر في عزو سوء النية إلى استخدامها. تشير الغالبية إلى أن Meta لم تجد أن علامات الهاشتاج هذه تُستخدم كأسلوب مستتر للسخرية. وقد بدا أن المستخدمين الذين علَّقوا على المنشور فهموا أنه كان يهدف إلى زيادة الوعي، وأن ردود كاتب المنشور كانت متعاطفة مع الضحايا.
وجدت أقلية من أعضاء المجلس أن إضافة علامات الهاشتاج المتعلقة بإطلاق النار إلى اللقطات تبدو سادية، ويمكن أن تصيب الناجين أو عائلات الضحايا بصدمة نفسية. ولن تقلل الشاشة التحذيرية من حدة هذا التأثير. بالنظر إلى سياق العنف الإرهابي في نيجيريا، فإن Meta لديها ما يبرر لها توخِّي الحذر، لا سيما عندما يكون من الممكن التعرُّف على هوية الضحايا. ولذلك ترى الأقلية أنه لا ينبغي استعادة هذا المنشور.
يرى المجلس أنه يجب توضيح سياسة المحتوى العنيف والصادم. وتحظر السياسة "الملاحظات السادية"، لكن تعريف هذا المصطلح المدرج في التوجيهات الداخلية لدى المشرفين أوسع من استخدامه الشائع.
يشير المجلس إلى أن المحتوى تعرَّض للإزالة في الأصل لأنه تمت مطابقته مع فيديو قد أُضيف بشكل خاطئ إلى بنك التصعيدات. في أعقاب الأزمة مباشرة، كانت Meta تحاول على الأرجح ضمان عدم انتشار المحتوى المخالف على منصاتها. لكن يجب على الشركة الآن ضمان استعادة المحتوى الذي تمت إزالته عن طريق الخطأ، والتراجع عن القرارات المترتبة على تلك الإزالة.
قرار مجلس الإشراف
ألغى مجلس الإشراف قرار Meta بإزالة المنشور ووجد أنه يجب إعادته إلى المنصة مع عرض شاشة تحذيرية توضح أنه "محتوى مزعج".
وأوصى المجلس Meta بما يلي:
- مراجعة اللغة المستخدمة في سياسة المحتوى العنيف والصادم العامة للتأكد من توافقها مع التوجيهات الداخلية لدى المشرفين.
- إبلاغ مستخدمي Instagram عند تطبيق شاشة تحذيرية على المحتوى الذي ينشرونه وتوضيح مبادئ السياسة المحددة الداعية لاتخاذ هذا الإجراء.
*توفر ملخصات الحالة نظرة عامة على الحالة ولا تُشكّل سابقة قانونية.
القرار الكامل للمجلس بشأن الحالة
1. ملخص القرار
أزالت ميتا منشورًا على Instagram يحتوي على فيديو يحمل شرحًا توضيحيًا يُصوِّر آثار هجوم على كنيسة في نيجيريا، لانتهاكه سياساتها بشأن المحتوى العنيف والصادم، والمضايقة والإساءة، والأفراد الخطرون والمنظمات الخطرة. ترى غالبية أعضاء المجلس أنه يجب استعادة المحتوى إلى المنصة مع وضع شاشة تحذيرية بعنوان "محتوى مزعج" تطلب من المستخدمين النقر عليها لمشاهدة الفيديو. بينما لا توافق أقلية من أعضاء المجلس على ذلك وتؤيد قرار Meta بإزالة المحتوى.
2. وصف الحالة ومعلومات أساسية عنها
في 5 يونيو 2022، هاجم إرهابيون كنيسة كاثوليكية في أوو، جنوب غرب نيجيريا، ما أسفر عن مقتل ما لا يقل عن 40 شخصًا وإصابة ما يقرب من 90 شخصًا آخر. وفي غضون ساعات من الهجوم، نشر أحد مستخدمي Instagram في نيجيريا فيديو على حسابه العام يبدو أنه في أعقاب الهجوم، يعرض جثثًا بلا حراك وملطخة بالدماء على أرضية الكنيسة، مع إظهار وجوه بعض الضحايا. يمكن سماع أصوات حالة الفوضى، يتخللها عويل وصراخ من بعض الأشخاص، في الخلفية. وقد تم نشر الفيديو في بداية الأمر دون شرح توضيحي. وحصد أقل من 50 تعليقًا. شملت تلك التعليقات التي رآها المجلس دعوات من أجل الضحايا، ورموزًا تعبيرية للبكاء، وعبارات حول السلامة في نيجيريا. وقد ردَّ كاتب المنشور على العديد من الأشخاص الذين أظهروا تضامنهم مع تلك المشاعر.
بعد أن نشر المستخدم المحتوى، تعرَّف عليه أحد بنوك خدمة مطابقة الوسائط المعنية بالمحتوى العنيف والصادم في Meta، والذي كان يحتوي على فيديو مشابه إلى حد كبير. يعمل هذا البنك تلقائيًا على تمييز المحتوى الذي سبق أن حدَّده المراجعون البشريون باعتباره ينتهك قواعد الشركة. وفي هذه الحالة، أحال البنك فيديو المستخدم إلى أداة تلقائية للإشراف على المحتوى تسمى أداة تصنيف، يمكنها تقييم مدى احتمالية انتهاك المحتوى لسياسة Meta. قرَّرت أداة التصنيف أنه يجب السماح بالفيديو على Instagram. كما قرَّرت أن المحتوى يحتوي على الأرجح على صور لوفيَّات بسبب أعمال عنف، ونتيجةً لذلك، وضعت تلقائيًا شاشة تحذيرية بعنوان "محتوى مزعج" حسبما تقتضي سياسة المحتوى العنيف والصادم. لم تُرسل Meta إشعارًا إلى المستخدم بأنه تم تطبيق الشاشة التحذيرية. على مدار اليومين التاليين لذلك، أبلغ ثلاثة مستخدمين عن المحتوى، لكونه يشتمل على مشاهد تُصوِّر حالات الوفاة والإصابات الخطيرة.
في الوقت نفسه، كان موظفو Meta يعملون على تحديد المحتوى الناشئ عن الهجوم والتعامل معه. تم تنبيه فريق السياسات في Meta بشأن الهجوم من قِبل الموظفين الإقليميين وتمت إضافة مقاطع فيديو حول الحادث إلى بنك مختلف لخدمة مطابقة الوسائط، وهو "بنك تصعيدات". وقد وجدت فِرق Meta الداخلية المتخصصة أن المحتوى الموجود في "بنك التصعيد" ينتهك السياسات، وأن أي محتوى مطابق تتم إزالته على الفور. تضمنت مقاطع الفيديو التي أُضيفت إلى بنك التصعيدات بعد الحادث لقطات أظهرت أحشاء بشرية مرئية (وهو ما لم يفعله الفيديو المعني في هذه الحالة). كما تمت دعوة الفِرق الأخرى في Meta لإحالة مقاطع الفيديو التي يُحتمل أن تكون مشابهة إلى فريق السياسات. سيحدد فريق السياسات بعد ذلك ما إذا كان ينبغي إضافتها أيضًا إلى بنك التصعيدات.
بعد ثلاثة أيام من الهجوم، أضافت Meta فيديو مطابقًا تقريبًا للمحتوى المعني في هذه الحالة إلى بنك التصعيدات. نتيجةً لذلك، قارنت أنظمة Meta هذا الفيديو بالمحتوى الموجود بالفعل على المنصة للتحقُّق من أوجه التطابق بينهما. أثناء إجراء هذه المراجعة بأثر رجعي، قرَّر المستخدم تعديل منشوره الأصلي، مع إضافة شرح توضيحي باللغة الإنجليزية إلى الفيديو. وذكر أن الكنيسة تعرضت لهجوم من مسلحين، ما أسفر عن مصرع عدة أشخاص، ووصف الحادث بأنه "sad" (مُحزن). وتضمن الشرح التوضيحي عددًا كبيرًا من علامات الهاشتاج. كانت غالبيتها تدور حول لعبة الحركة الواقعية "airsoft" (إير سوفت) (التي تتنافس خلالها فِرق اللاعبين للتصويب على اللاعبين في الفِرق الأخرى وإخراجهم من اللعب باستخدام مقذوفات بلاستيكية يتم إطلاقها بأسلحة وهمية). هناك هاشتاج آخر، حسب تحليلات Meta، ألمح إلى صوت إطلاق النار وتم استخدامه أيضًا لتسويق الأسلحة النارية. أشارت علامات الهاشتاج الأخرى إلى الأشخاص الذين يجمعون الأسلحة النارية ومستلزمات الأسلحة النارية، بالإضافة إلى عمليات المحاكاة العسكرية.
بعد وقت قصير من إضافة الشرح التوضيحي، طابقت المراجعة بأثر رجعي التي أجراها بنك التصعيدات منشور المستخدم مع الفيديو شبه المطابق الذي تمت إضافته مؤخرًا، وأزالته من المنصة. لكن المستخدم تقدَّم بطعن على القرار. راجَع أحد المشرفين البشريين المحتوى وأيَّد قرار الإزالة. وعندها، تقدَّم المستخدم بطعن إلى المجلس.
عند هذه المرحلة، لم تكن البلاغات الثلاثة التي قدَّمها المستخدمون حول المحتوى قد تمت مراجعتها بعد بينما تم إغلاقها. أبلغت Meta المجلس أن البلاغات قد تم تعيينها عن طريق الخطأ إلى قائمة انتظار ذات أولوية منخفضة.
استجابةً لاختيار المجلس لهذه الحالة، راجعت Meta الفيديو شبه المطابق الذي تم وضعه في بنك التصعيدات. وقرَّرت Meta أنه لم ينتهك أي سياسات لأنه لم يعرض أي "أحشاء مرئية" أو أي شرح توضيحي سادي، ومن ثم أزالته من البنك. ومع ذلك، احتفظت Meta بقرارها الصادر بإزالة المحتوى في هذه الحالة، فقد ذكرت أنه في حين أن السرد حول الحدث وتعبير المستخدم عن الحزن لم ينتهك السياسات، فإن علامات الهاشتاج الواردة في الشرح التوضيحي الذي أضافه المستخدم قد انتهكت سياسات متعددة. وردًا على أسئلة من المجلس، عملت Meta على تحليل سجل منشورات المستخدم ووجدت أن المستخدم قد قام بتضمين علامات هاشتاج مماثلة في العديد من منشوراته الأخيرة على Instagram.
أشار المجلس، في سياق ملائم للحالة، إلى التاريخ الحديث من حوادث العنف والإرهاب في نيجيريا. وصرَّح الخبراء الذين استشارهم المجلس أن الحكومة النيجيرية قد قمعت في بعض الأحيان التقارير المحلية عن الهجمات الإرهابية ولكن لا يبدو أنها فعلت ذلك بدرجة كبيرة فيما يتعلق بهجوم 5 يونيو، الذي تمت تغطيته على نطاق واسع من قِبل وسائل الإعلام التقليدية. تم تداول صور صادمة للهجوم وضحاياه على نطاق واسع عبر منصات وسائل التواصل الاجتماعي، بما في ذلك Instagram وفيسبوك، ولكن لم يتم عرضها بالقدر نفسه على وسائل الإعلام التقليدية. ردًا على أسئلة من المجلس، أكدت Meta أن الحكومة النيجيرية لم تتواصل مع Meta بشأن الهجوم أو تطلب إزالة المحتوى.
3. سُلطة ونطاق مجلس الإشراف
يتمتع المجلس بسلطة مراجعة قرار شركة Meta بعد تلقي طعن من المستخدم الذي تعرض المحتوى الخاص به إلى الإزالة (المادة 2، القسم 1 من اتفاقية المجلس؛ المادة 3، القسم 1 من اللائحة الداخلية).
يجوز للمجلس تأييد قرار شركة Meta أو إلغائه (المادة 3، القسم 5 من اتفاقية المجلس)، ويكون قراره بهذا الشأن ملزمًا للشركة (المادة 4 من اتفاقية المجلس). يجب على شركة Meta أيضًا تقييم جدوى تطبيق قرارها على أي محتوى مماثل له سياق موازٍ (المادة 4 من اتفاقية المجلس). وقد تتضمن قرارات المجلس بيانات استشارية بشأن السياسية تضم توصيات غير ملزمة يجب على شركة Meta الرد عليها (اتفاقية المجلس، المادة 3، القسم 4؛ المادة 4).
4. مصدر السلطة
أخذ مجلس الإشراف السلطات والمعايير التالية في الاعتبار:
1.قرارات مجلس الإشراف:
- "القصيدة الروسية" (القرار الصادر بشأن الحالة 2022-008-FB-UA): ناقش المجلس التحديات الناشئة عن الإشراف على المحتوى في حالات النزاع وأشار إلى أن سياسة المحتوى العنيف والصادم لم تكن واضحة.
- "ذِكر طالبان في التقارير الإخبارية" (القرار الصادر بشأن الحالة 2022-005-FB-UA): ناقش المجلس الكيفية التي يمكن بها للمستخدمين التعليق على أنشطة الكيانات الإرهابية.
- "الرسم الكاريكاتوري للشرطة الكولومبية" (القرار الصادر بشأن الحالة 2022-004-FB-UA): أوصى المجلس Meta بتحسين الإجراءات لإزالة المحتوى غير المخالف الذي أُضيف بالخطأ إلى بنوك خدمة مطابقة الوسائط.
- "فيديو صادم حول السودان" (القرار الصادر بشأن الحالة 2022-002-FB-MR): ناقش المجلس الحاجة إلى تعديل سياسة المحتوى العنيف والصادم وتوضيحها.
- "المظاهرات المؤيدة لنافالني في روسيا" (القرار الصادر بشأن الحالة 2021-004-FB-UA): ناقش المجلس الهدف المشروع لمعايير المجتمع المعنية بالمضايقة والإساءة.
- "الاقتباس النازي" (القرار الصادر بشأن الحالة 2020-005-FB-UA): ناقش المجلس التعليقات على المحتوى التي أضافها أصدقاء كاتب المنشور ومتابعوه، كمؤشر على النية المحتملة لناشر المحتوى.
2. سياسات المحتوى لدى Meta:
تتضمن هذه الحالة إرشادات مجتمع Instagram ومعايير مجتمع فيسبوك. ينص تقرير الشفافية للربع السنوي الثالث في Meta على أن "سياسات المحتوى مشتركة بين فيسبوك وInstagram. ويعني ذلك أن اعتبار المحتوى مخالفًا على فيسبوك يجعله مخالفًا على Instagram أيضًا".
تنص إرشادات مجتمع Instagram على أن Meta "قد تزيل مقاطع الفيديو التي تحتوي على عنف مصوَّر ومكثَّف للتأكد من بقاء مجتمع Instagram ملائمًا للجميع". ويرتبط ذلك بمعايير المجتمع المعنية بالمحتوى العنيف والصادم على فيسبوك، إذ تنص مبادئ السياسة على ما يلي:
لحماية المستخدمين من الصور المزعجة، نزيل المحتوى العنيف أو الصادم بشكل خاص، مثل مقاطع الفيديو التي تعرض أوصالاً مُقطَّعة أو أحشاءً مرئية أو أجسامًا متفحمة. نزيل أيضًا المحتوى الذي يحتوي على ملاحظات سادية تجاه الصور التي تصور معاناة البشر والحيوانات. في سياق المناقشات حول قضايا مهمة مثل انتهاكات حقوق الإنسان أو النزاعات المسلحة أو الأعمال الإرهابية، نسمح بالمحتوى الصادم (مع بعض القيود) لمساعدة الأشخاص على إدانة هذه المواقف وزيادة الوعي بشأنها.
تنص سياسة المحتوى العنيف والصادم على أنه سيتم وضع "الصور التي تعرض مشاهد صادمة لموت شخص أو مجموعة أشخاص في حادث أو جريمة قتل" خلف شاشة تحذيرية بشأن محتوى مزعج. يوضح القسم الذي يحمل العنوان "يجب عدم نشر" الوارد في القواعد أنه لا يمكن للمستخدمين نشر ملاحظات سادية تجاه الصور التي تتطلب وضع شاشة تحذيرية بموجب السياسة. وينص أيضًا على أنه ستتم إزالة المحتوى إذا ظهرت به "أحشاء مرئية".
توضح مبادئ السياسة المعنية بالمضايقة والإساءة في Meta أنها ستزيل مجموعة متنوعة من المحتوى "لأنها تحرم الأشخاص من الشعور بالأمان والاحترام على فيسبوك". وبموجب المستوى الرابع من القواعد المحددة، تحظر الشركة المحتوى الذي "يمتدح أو يحتفي أو يسخر من وفاة أو إصابة خطيرة" للأفراد العاديين.
توضح مبادئ السياسة المعنية بالأفراد الخطرين والمنظمات الخطرة في Meta أن Meta تحظر "المحتوى الذي يمدح أو يدعم بشكل جوهري أو يمثل الأحداث التي تصنفها فيسبوك على أنها أحداث عنيفة تنتهك معايير المجتمع، بما في ذلك الهجمات الإرهابية أو أحداث الكراهية أو أعمال العنف متعددة الضحايا أو محاولات ارتكاب أعمال عنف متعددة الضحايا". وبموجب المستوى الأول من القواعد المحددة، ستزيل Meta أي محتوى يمدح مثل هذه الأحداث.
3. قيم شركة Meta:
ورد توضيح قيم شركة Meta في مقدمة معايير مجتمع فيسبوك وأكَّدت الشركة أن هذه القيم تنطبق على Instagram. وقد جرى وصف قيمة "حرية الرأي" بأنها "ذات أهمية قصوى":
يتمثل هدف معايير مجتمعنا في توفير مكان لحرية التعبير يستطيع الأشخاص من خلاله إبداء وجهات نظرهم. تريد Meta أن يتمتع الأشخاص بالقدرة على التحدث بحرية عن القضايا التي تهمهم، حتى في حالة عدم اتفاق الآخرين أو اعتراضهم على الأفكار المطروحة.
تُقيد شركة Meta "حرية الرأي" لخدمة أربع قيم أخرى، ترتبط ثلاثة منها بهذه الحالة:
السلامة: نحن ملتزمون بجعل فيسبوك مكانًا آمنًا. ونعمل على إزالة المحتوى الذي قد يسهم في مخاطر إلحاق ضرر بالأمان البدني للأشخاص. إن المحتوى الذي يحمل تهديدًا للأشخاص قد يتسبب في إخافة الآخرين أو إقصائهم أو إسكاتهم ونحن لا نسمح بذلك على فيسبوك.
الخصوصية:نحن ملتزمون بحماية الخصوصية والمعلومات الشخصية. وذلك لأن الخصوصية تمنح الأشخاص حرية التعبير عن ذواتهم الحقيقية، واختيار طريقة وتوقيت المشاركة على فيسبوك والتواصل بسهولة أكبر.
الكرامة: نحن نؤمن بأن الأشخاص متساوون في الكرامة والحقوق. ونتوقع من الجميع احترام كرامة الآخرين وعدم الإساءة إليهم أو الحط من قدر الآخرين.
4. المعايير الدولية لحقوق الإنسان:
تُرسي مبادئ الأمم المتحدة التوجيهية بشأن الأعمال التجارية وحقوق الإنسان (UNGP)، التي أقرها مجلس حقوق الإنسان التابع للأمم المتحدة عام 2011، إطار عمل تطوعي لمسؤوليات الأنشطة التجارية الخاصة فيما يتعلق بحقوق الإنسان. في عام 2021، أعلنت شركة Meta عن سياسة حقوق الإنسان الخاصة بالشركة، والتي أعادت التأكيد من خلالها على الالتزام باحترام حقوق الإنسان على نحو يتفق مع مبادئ الأمم المتحدة التوجيهية بشأن الأعمال التجارية وحقوق الإنسان. وقد استند تحليل المجلس لمسؤوليات شركة Meta تجاه حقوق الإنسان في هذه الحالة إلى معايير حقوق الإنسان التالية:
- الحق في حرية التعبير: المادة 19 من العهد الدولي الخاص بالحقوق المدنية والسياسية (ICCPR)، التعليق العام رقم 34، اللجنة المعنية بحقوق الإنسان، 2011؛ تقارير مقرر الأمم المتحدة الخاص المعني بحرية الرأي والتعبير: A/HRC/38/35 (2018) وA/74/486 (2019).
- الحق في الخصوصية: المادة 17، العهد الدولي الخاص بالحقوق المدنية والسياسية.
5. المعلومات المقدَّمة من المستخدمين
أوضح المستخدم في بيانه المُقدَّم إلى المجلس أنه قد شارك الفيديو لزيادة الوعي بالهجوم وإعلام العالم بما كان يحدث في نيجيريا.
6. المعلومات المقدَّمة من Meta
أوضحت Meta في حيثياتها أنه بموجب سياسة المحتوى العنيف والصادم، فإن الصور، بما في ذلك مقاطع الفيديو، التي تعرض مشاهد صادمة لموت أشخاص عادةً ما يتم وضعها خلف شاشة تحذيرية تشير إلى أنها قد تكون مزعجة. يمكن للمستخدمين البالغين النقر على الشاشة لعرض المحتوى، بينما لا يتوفر لدى القاصرين هذا الخيار. ومع ذلك، أوضحت Meta أيضًا أنه عندما يكون هذا المحتوى مصحوبًا بملاحظات سادية، تتم إزالته. وفقًا لشركة Meta، يستهدف هذا الإجراء منع الأشخاص من استخدام المنصات لتمجيد أعمال العنف أو الاحتفال بمعاناة الآخرين. أكدت Meta أنه لولا وجود الشرح التوضيحي، كان سيتم السماح بالفيديو على Instagram خلف شاشة تحذيرية بأنه محتوى مزعج. إذا كان الفيديو قد تضمن مشاهد "أحشاء مرئية"، كما هو الحال في مقاطع الفيديو الأخرى حول الحادث ذاته، كانت ستتم إزالته بموجب سياسة المحتوى العنيف والصادم دون حتى الحاجة إلى وجود ملاحظات سادية حوله.
في البداية، أخبرت Meta المجلس أنه في هذه الحالة لم يتم إبلاغ المستخدم بأمر الشاشة التحذيرية أو السياسة المستخدمة لتطبيقها، بسبب خطأ فني. لكن، بعد مزيد من الاستفسارات التي طرحها المجلس، كشفت Meta أنه بينما يتلقى مستخدمو فيسبوك عمومًا إشعارًا بإضافة شاشة تحذيرية وسبب إضافتها، لا يتلقى مستخدمو Instagram أي إشعار.
أوضحت Meta أن توجيهاتها الداخلية للمشرفين، الأسئلة المعروفة، تضع تعريفًا للملاحظات السادية بأنها تلك "التي تستمتع أو تستمد المتعة من معاناة/إذلال إنسان أو حيوان". وتُقدِّم الأسئلة المعروفة أمثلة على الملاحظات التي تُصنَّف بأنها سادية، مُقسَّمة إلى ملاحظات تُظهر "الاستمتاع بالمعاناة" وأخرى تعرض "استجابات فكاهية". أكَّدت Meta أيضًا أنه يمكن التعبير عن الملاحظات السادية من خلال علامات الهاشتاج وكذلك الرموز التعبيرية.
في تحليلها لعلامات الهاشتاج المستخدمة في هذه الحالة، أوضحت Meta أن الإشارة إلى صوت إطلاق النار كانت بمثابة "استجابة فكاهية" على أعمال العنف التي سلطت الضوء على الهجوم الإرهابي في 5 يونيو. وأوضحت Meta أن الهاشتاج نفسه يُستخدم أيضًا لتسويق الأسلحة. ذكرت Meta أيضًا أن هاشتاج إطلاق النار، بالإضافة إلى الهاشتاج الذي يشير إلى الأفراد الذين يجمعون الأسلحة النارية ومستلزمات الأسلحة النارية، "يمكن تفسيرهما على أنهما تمجيد للعنف والتقليل من معاناة الضحايا من خلال التذرُّع بالفكاهة والتحدُّث بشكل إيجابي عن الأسلحة والمعدات المستخدمة في ارتكاب أعمال العنف المتسببة في مصرع الضحايا". أوضحت Meta أيضًا أن الهاشتاج الذي يشير إلى عمليات المحاكاة العسكرية يقارن الهجوم بمحاكاة، "مما يقلل من حجم المأساة الفعلية والضرر الحقيقي الذي يعاني منه الضحايا ومجتمعهم". كذلك ذكرت Meta أن علامات الهاشتاج التي تشير إلى لعبة "airsoft" (إير سوفت) تقارن الهجوم بلعبة بطريقة تُمجّد العنف باعتباره شيء يُفعل من أجل المتعة.
أوضحت Meta أن الشرح التوضيحي الذي أضافه المستخدم لتأكيد أنه لا يؤيّد العنف وأن يوم الهجوم كان يومًا حزينًا "لا يشير بوضوح إلى أنه يشارك الفيديو لزيادة الوعي بشأن الهجوم". وأوضحت الشركة أيضًا أنه حتى إذا كان المستخدم قد أظهر نية لزيادة الوعي، فإن استخدام "علامات الهاشتاج السادية" سيظل داعيًا لإزالة المحتوى. لتأييد هذا الموقف، أوضحت Meta أن بعض المستخدمين يحاولون التهرب من آليات الإشراف على المحتوى من خلال إدراج لغة خادعة أو متناقضة في منشوراتهم. وقد ميَّزت Meta هذا القرار عن قرار المجلس الصادر بشأن الحالة "فيديو صادم حول السودان" (2022-002-FB-FBR) التي أوضح خلالها المستخدم نيته في زيادة الوعي أثناء مشاركة محتوى مزعج. وردًا على أسئلة المجلس، أبلغت Meta المجلس أن المستخدم قام بتضمين علامات الهاشتاج ذاتها في معظم منشوراته الأخيرة. بينما لم تتمكن Meta من تحديد سبب استخدام هذا المستخدم لعلامات الهاشتاج ذاتها بشكل متكرر.
ذكرت Meta أيضًا أن منشور المستخدم ينتهك سياسة المضايقة والإساءة التي تحظر المحتوى الذي يسخر من موت الأفراد العاديين. وفي هذه الحالة، تم اعتبار الهاشتاج الذي يشير إلى صوت إطلاق النار استجابة فكاهية لأعمال العنف التي تظهر في الفيديو.
ردًا على أسئلة المجلس، قررت Meta أيضًا أن المحتوى ينتهك سياسة الأفراد الخطرين والمنظمات الخطرة. وقد صنَّفت Meta هجوم 5 يونيو على أنه "حدث عنف متعدد الضحايا"، ونتيجة لذلك، فإن أي محتوى يتم اعتباره مدحًا لهذا الحدث أو يدعمه بشكل جوهري أو يُمثله محظور بموجب سياسة الأفراد الخطرين والمنظمات الخطرة. أوضحت Meta أن هذا يتماشى مع التزاماتها بموجب نداء كرايستشيرش للعمل، وأنها لفتت انتباه شركاء المجال إلى هجوم 5 يونيو في منتدى الإنترنت العالمي لمكافحة الإرهاب. كذلك أوضحت Meta أنه على الرغم من أن المحتوى كان يمثل "حالة عويصة"، يبدو أنه في هذه الحالة يسخر من ضحايا الهجوم ويتحدث بشكل إيجابي عن الأسلحة المستخدمة، وبالتالي يرقى إلى اعتباره إشادة بحدث معين بموجب سياسات الشركة.
ذكرت Meta أن إزالة المحتوى في هذه الحالة يحقق التوازن المناسب بين القيم التي تؤمن بها الشركة. وقد أظهر الشرح التوضيحي الذي أضافه المستخدم عدم احترام كرامة الضحايا وعائلاتهم والمجتمع المتأثر بالهجوم، وكلها أكثر أهمية من قيمة حرية التعبير التي يتمتع بها المستخدم. ردًا على أسئلة المجلس، أكدت Meta أنها لم تُصدر أي استثناءات للأهمية الإخبارية فيما يتعلق بالمحتوى الذي يشتمل على مشاهد مخالفة تتعلق بهجوم 5 يونيو.
أخيرًا، أوضحت Meta أن إجراءاتها كانت تتماشى مع القانون الدولي لحقوق الإنسان، مشيرةً إلى أن سياستها بشأن الملاحظات السادية واضحة ويمكن الوصول إليها بسهولة، وأن سياستها تهدف إلى حماية حقوق الآخرين، فضلاً عن حفظ النظام العام والأمن القومي، وأن جميع الإجراءات التي لا تصل إلى حد الإزالة لم تكن لتعالج بشكل كاف مخاطر إلحاق الضرر بالآخرين. أشارت Meta إلى قرار المحكمة الأوروبية لحقوق الإنسان الصادر بشأن قضية هاشيت فيليباتشي ضد فرنسا (2007)، والذي قضى بأن الصحفيين الذين نشروا صورًا لموت شخص ما بسبب أعمال عنف في مجلة واسعة الانتشار قد ساهموا في "زيادة حدة الصدمة التي عانى منها الأقارب". أشارت Meta أيضًا إلى مقالة نشرها سام جريجوري عام 2010 بعنوان "الكاميرات في كل مكان: توثيق شامل لحقوق الإنسان بالفيديو، وأشكال جديدة من المناصرة عبر الفيديو، واعتبارات تتعلق بالسلامة والأمن والكرامة والموافقة" في مجلة ممارسات حقوق الإنسان، توضح أن "أشد الانتهاكات الصادمة" مثل الهجمات العنيفة "تُترجم بسهولة إلى فقدان للكرامة والخصوصية وسلب للإرادة، وتحمل في طيّاتها إمكانية إعادة الإيذاء الحقيقي". وأشارت Meta إلى أن سياستها ليست إزالة المحتوى الصادم، ولكن وضعه خلف شاشة تحذيرية، مما يحد من وصوله إلى القاصرين. وذكرت أن سياستها لإزالة الملاحظات السادية "تتّخذ إجراءات أشد صرامة" لأن "قيمة الكرامة أهم من قيمة حرية التعبير".
طرح المجلس على Meta 29 سؤالاً، تمت الإجابة عن 28 منها إجابة كاملة. إذ لم تتمكن Meta من الإجابة عن سؤال حول النسبة المئوية لبلاغات المستخدمين التي تم إغلاقها دون مراجعة في سوق دول أفريقيا الواقعة جنوب الصحراء الكبرى.
7. التعليقات العامة
نظر مجلس الإشراف في تسعة تعليقات عامة ذات صلة بهذه الحالة. تم إرسال أحد التعليقات من منطقة آسيا والمحيط الهادئ والأوقيانوس، وآخر من وسط وجنوب آسيا، وثالث من الشرق الأوسط وشمال أفريقيا، ورابع من دول أفريقيا الواقعة جنوب الصحراء الكبرى، وخمسة من الولايات المتحدة وكندا.
تناولت المعلومات المقدَّمة موضوعات منها الحاجة إلى توضيح سياسة المحتوى العنيف والصادم، والقضايا الخاصة بنيجيريا التي ينبغي أن يكون المجلس على دراية بها أثناء اتخاذ قرار بشأن هذه الحالة.
لقراءة التعليقات العامة المقدمة في هذه الحالة، يرجى النقر هنا.
8.تحليل مجلس الإشراف
نظر المجلس في مسألة ما إذا كان ينبغي استعادة هذا المحتوى من خلال ثلاث رؤى: سياسات المحتوى لدى شركة Meta، وقيَمها، ومسؤولياتها تجاه حقوق الإنسان.
8.1 الامتثال لسياسات المحتوى لدى شركة Meta
أجرى المجلس تحليلاً لثلاث سياسات من سياسات المحتوى في Meta: المحتوى العنيف والصادم؛ والمضايقة والإساءة؛ والأفراد الخطرون والمنظمات الخطرة. وترى غالبية أعضاء المجلس أنه لم يتم انتهاك أي سياسة.
1. قواعد المحتوى
المحتوى العنيف والصادم
تنص مبادئ السياسة على أن Meta "تزيل المحتوى الذي يحتوي على ملاحظات سادية تجاه الصور التي تصور معاناة البشر والحيوانات". لكنها تنص أيضًا على أنه يُسمح بالمحتوى الصادم مع بعض القيود لمساعدة الأشخاص على إدانة "القضايا المهمة مثل انتهاكات حقوق الإنسان أو النزاعات المسلحة أو الأعمال الإرهابية" وزيادة الوعي بشأنها. تقتضي السياسة أيضًا وضع شاشات تحذيرية لتنبيه الأشخاص إلى أن المحتوى قد يكون مزعجًا، بما في ذلك الحالات التي تعرض فيها المشاهد المصورة وفيّات بسبب أعمال عنف. في القواعد التي تخضع مباشرة لمبادئ السياسة، توضح Meta أنه لا يمكن للمستخدمين نشر "ملاحظات سادية تجاه الصور التي تم حذفها أو تغطيتها بشاشة تحذيرية بموجب هذه السياسة". ولا تقدم Meta أي تفسيرات أو أمثلة عامة أخرى حول الملاحظات السادية.
يتفق المجلس مع Meta على أن الفيديو المعني في هذه الحالة يُظهر حالات وفاة بسبب أعمال عنف، وأنه في حالة عدم وجود شرح توضيحي، يجب أن يحتوي على شاشة تحذيرية. وبعيدًا عن المحتوى الوارد في قرار المجلس الصادر بشأن حالة "فيديو صادم حول السودان"، فإن الفيديو في هذه الحالة، على الرغم من أنه يصور جثثًا ملطخة بالدماء، لا يُظهر أحشاء داخلية مرئية، الأمر الذي كان ليتطلب الإزالة بموجب السياسة. في حالة "فيديو صادم حول السودان"، أوضحت علامات الهاشتاج نية واضحة لتوثيق انتهاكات حقوق الإنسان، واعتمد المجلس جزئيًا على النية الواضحة في علامات الهاشتاج هذه وعلى استثناء الأهمية الإخبارية في Meta لاستعادة المحتوى. لكن في هذه الحالة، فإن تقييم المجلس للمحتوى وفقًا لسياسات المحتوى في Meta يعتمد جزئيًا على عدم ظهور أي أحشاء مرئية أو أوصال مُقطَّعة أو تفحُّم في لقطات الفيديو، بالإضافة إلى علامات الهاشتاج المستخدمة. يدور الاختلاف بين موقفي الأغلبية والأقلية حول الغرض أو المغزى الذي يُفترض أن يُعزى إلى علامات الهاشتاج في هذه الحالة.
تبني غالبية أعضاء المجلس موقفها على الاستخدام الشائع لعلامات الهاشتاج من قِبل المستخدمين لترويج منشور داخل مجتمع معين، وللتواصل مع الآخرين الذين يبادلونهم الاهتمامات المشتركة، وللدلالة على نوعية العلاقات. عند استخدام الهاشتاج بهذه الطريقة، فإنه لا ينطوي بالضرورة على تعليق حول صورة أو قضية. لذا ترى غالبية أعضاء المجلس أن علامات الهاشتاج الواردة في الشرح التوضيحي ليست سادية، لأنها لا تُستخدم بطريقة تبين أن المستخدم "يستمتع أو يستمد المتعة" من معاناة الآخرين. إن تفسير القائمة الطويلة من علامات الهاشتاج ذات الطبيعة الخاصة باعتبارها تعليق على الفيديو، في هذه الحالة، مُضلل. وذلك ما يميز هذه الحالة عن قرار المجلس الصادر بشأن حالة "فيديو صادم حول السودان"، التي أشارت فيها علامات الهاشتاج بوضوح إلى نية المستخدم في مشاركة فيديو صادم. لا ينبغي تفسير تضمين المستخدم لعلامات الهاشتاج حول لعبة "إير سوفت"، وكذلك تلك المتعلقة بالأسلحة النارية وعمليات المحاكاة العسكرية، على أنه "تمجيد للعنف" (بموجب سياسة الأفراد الخطرين والمنظمات الخطرة) أو على أنه يتدنَّى إلى مستوى "استهزاء" (بموجب سياسة المضايقة والإساءة) أو إظهار أن المستخدم كان "يستمتع أو يستمد المتعة من معاناة الآخرين" (بموجب سياسة العنف المُصوَّر). يشارك العديد من مستخدمي وسائل التواصل الاجتماعي اهتماماتهم بلعبة "إير سوفت" أو الأسلحة النارية أو المحاكاة العسكرية وقد يستخدمون علامات الهاشتاج للتواصل مع الآخرين دون التعبير بأي شكل من الأشكال عن دعم الإرهاب أو العنف ضد الأفراد. ترتبط علامات الهاشتاج حول لعبة "إير سوفت" ارتباطًا مباشرًا بالشغف تجاه اللعبة، كما أنها، بشكل عام، غير متجانسة مع محتوى الفيديو والتعليق الذي شاركه المستخدم تحتها مباشرةً. كان من المفترض أن يُوضح ذلك لشركة Meta أن المستخدم كان يحاول زيادة الوعي بين الأشخاص الذين يتواصل معهم عادة على Instagram، وتوسيع نطاق الوصول إلى الآخرين. ونظرًا لأن تصميم Instagram يُحفز الاستخدام المتحرر لعلامات الهاشتاج كوسيلة لترويج المحتوى والتواصل مع جماهير جديدة، فمن المهم أن تكون Meta حذرة قبل أن تنسب سوء النية إلى استخدامها. وقد أكَّد بحث مستقل أُجري بتكليف من المجلس أن علامات الهاشتاج المستخدمة في هذا المنشور تُستخدم على نطاق واسع بين الأشخاص الشغوفين بالأسلحة النارية ومستلزمات الأسلحة النارية، ولم تجد Meta أن علامات الهاشتاج هذه قد تم استخدامها كأسلوب مستتر للسخرية بهدف التهرُّب من تعرُّضها للاكتشاف على منصاتها.
بالنسبة إلى الغالبية، كان من الواضح أيضًا أن التعليق الذي أضافه المستخدم إلى الفيديو، بعد وضع الشاشة التحذيرية، لم يكن يشير إلى أنه يستمتع بالهجوم أو يستمد المتعة منه. وقد ذكر المستخدم أن الهجوم يمثل "يومًا حزينًا"، وأنه لا يؤيد العنف. كما أشارت التعليقات على المنشور إلى أن متابعي المستخدم قد فهموا أن نية المستخدم تتمثل في زيادة الوعي، مثلما هو الوضع في حالة "الاقتباس النازي". كذلك أظهرت ردود المستخدم على هذه التعليقات مزيدًا من التعاطف مع الضحايا. يقبل المجلس حجة Meta القائلة بأن عبارات المستخدم الصريحة الواردة في المحتوى التي تدَّعي أنه لا يؤيِّد العنف لا ينبغي أن نقبلها دائمًا في ظاهرها، فقد يحاول بعض المستخدمين التهرب من الإشراف من خلال تضمين تلك العبارات، بما يخالف الغرض الفعلي من منشوراتهم. ويشير المجلس إلى النتائج التي توصَّل إليها بأنه لا ينبغي أن يكون ضروريًا إعلان المستخدم صراحةً عن إدانته للعنف عند التعليق على أنشطة الكيانات الإرهابية، وأن توقُّع قيامه بذلك يمكن أن يُقيّد بشدة حرية التعبير في المناطق التي تنشط فيها هذه الجماعات (راجع قرار المجلس الصادر بشأن حالة "ذِكر طالبان في التقارير الإخبارية").
خلُصت أقلية من أعضاء المجلس إلى أنه عند تقييم علامات الهاشتاج المرتبطة بإطلاق النار بالاقتران مع اللقطات المُصورة، فإنها تبدو سادية، لأنها تُقارن مقتل الأشخاص الذين تم تصويرهم بالألعاب وتبدو أنها تروج لأسلحة تُحاكي تلك المستخدمة في الهجوم. وقد يبدو ذلك ساديًا للناجين من الهجوم وأقارب القتلى، بجانب أن وضع المحتوى خلف شاشة تحذيرية لن يقلل من احتمالية تكرار الشعور بالصدمة. بالنظر إلى سياق العنف الإرهابي في نيجيريا، تجد الأقلية أن Meta لديها ما يبرر لها توخِّي الحذر حيث يبدو التعليق على العنف المُصوَّر ساديًا، حتى لو كان هناك قدر من الغموض. وينطبق هذا بشكل خاص على محتوى مثل هذا الفيديو، إذ يمكن التعرُّف على هوية ضحايا بعينهم حينما تكون وجوههم مرئية، وإذ لا يمكن استبعاد تصاعد العنف أو ارتكاب مزيد من الأعمال الانتقامية من جانب المهاجمين ضد الناجين من الهجوم. وترى أقلية من أعضاء المجلس أيضًا أن العبارات الواردة في الشرح التوضيحي في هذه الحالة لا تنفي التأثير السادي لوضع علامات الهاشتاج المرتبطة بعشاق الأسلحة جنبًا إلى جنب مع فيديو يُصور الآثار المروعة للعنف المُرتكب بالأسلحة النارية. في حين أن علامات الهاشتاج قد تخدم غرضًا ارتباطيًا لأعضاء مجتمع ما، تعتقد أقلية من المجلس أنه من المناسب، في مثل هذه الحالات، أن تطبق Meta سياساتها بطريقة تنظر في المحتوى من منظور الناجين وعائلات الضحايا.
من المهم أيضًا النظر في كيفية قيام Meta بفرض سياسات المحتوى بسرعة وثبات في حالات الأزمات، كما هو الحال في أعقاب الأعمال الإرهابية التي تنتشر خلالها الصور بسرعة عبر وسائل التواصل الاجتماعي. اعتبرت الأقلية أنه من الوجيه مراعاة أن المشرف أو القارئ العادي لم يكن له أن يعرف أن المستخدم قد قام بشكل روتيني بتضمين علامات الهاشتاج هذه في معظم منشوراته الأخيرة. في موقف يتطلب سرعة التصرُّف، تجد الأقلية أن Meta كانت مُحقة في تفسير استخدام علامات الهاشتاج المتعلقة بالأسلحة النارية باعتبارها تشير إلى أن المستخدم يستمد المتعة من المعاناة المُصوَّرة. وتُقر الأغلبية بأن إزالة المحتوى كانت خطأً معقولاً وتتفق مع Meta على أنها كانت "حالة عويصة". ومع ذلك، فإن التحليل المستقل الذي أجراه المجلس (بمساعدة خبراء يقدمون معلومات سياقية عن إطلاق النار، وعن العنف في نيجيريا بشكل عام وعلاقته بوسائل التواصل الاجتماعي، وعن معنى علامات الهاشتاج واستخدامها) يقود الأغلبية إلى استنتاج أنه من الخطأ وصف علامات الهاشتاج هذه بأنها سادية لمجرد أنها مرتبطة بمستخدمي الأسلحة النارية.
المضايقة والإساءة
يحظر المستوى الرابع من سياسة المضايقة والإساءة المحتوى الذي يسخر من موت الأفراد العاديين أو إصابتهم بإصابات خطيرة.
للأسباب نفسها المُبيَّنة في القسم السابق، ترى أغلبية أعضاء المجلس أن المحتوى لا ينطوي على سخرية، لأن الغرض من علامات الهاشتاج ليس محاولة التهكُّم بل محاولة الارتباط بالآخرين، وهذا ما تؤكده الردود على المنشور وتفاعل المستخدم معها. وقد أخطأت Meta بافتراض أن سلسلة من علامات الهاشتاج هي تعليق على الفيديو المشترك. كما هو مذكور أعلاه، يبدو من خلال الردود على المنشور التي تعبر عن الصدمة والتعاطف أن المستخدم لم يكن يطلب من عشاق الأسلحة النارية السخرية من الضحايا، وتؤكد Meta أن معظم تلك الردود كانت من المستخدمين في نيجيريا، ويتضح ذلك أيضًا من تفاعل المستخدم مع تلك الردود (راجع قرار المجلس الصادر بشأن حالة "الاقتباس النازي"). بينما توافق الأغلبية على أهمية مراعاة منظور الناجين وعائلات الضحايا، فإن الردود على هذا المحتوى تشير إلى أن هذا المنظور لا يؤثر بالضرورة في الاحتفاظ بالمحتوى على المنصة، لا سيما بالنظر إلى تكرار الهجمات على المسيحيين في نيجيريا.
توجد أقلية من أعضاء المجلس لا توافق على ذلك. وترى أنه بإضافة علامات هاشتاج تتناول موضوع الأسلحة النارية المُقلَّدة، يبدو أيضًا أن المستخدم كان يُوجّه عمدًا فيديو يُصور ضحايا في حادث إطلاق نار إلى عشاق الأسلحة النارية. وترى أيضًا أن Meta كانت مُحقة عندما قررت أن هذا المحتوى يبدو ساخرًا، وأنه من المناسب أن تضع الشركة الأولوية لمنظور الناجين وعائلات الضحايا عند إجراء هذا التقييم.
الأفراد الخطرون والمنظمات الخطرة
يحظر المستوى الأول من سياسة الأفراد الخطرين والمنظمات الخطرة المحتوى الذي يمتدح "أعمال العنف متعددة الضحايا" أو يدعمها بشكل جوهري أو يمثلها.
يوافق المجلس على أنه وفقًا لتعريف Meta الذي يحدد "أعمال العنف متعددة الضحايا"، فإن هجوم 5 يونيو يندرج ضمن هذه الفئة. ومع ذلك، وجدت الأغلبية أن استخدام علامات الهاشتاج في الشرح التوضيحي ليس "مدحًا" للهجوم، للأسباب نفسها التي تؤكّد أنه لم يكن ساديًا. بينما لا توافق الأقلية على ذلك وتجد أنه، على الرغم من أنها حالة عويصة، وللأسباب نفسها الموضحة في الأقسام السابقة، يمكن اعتبار اقتران علامات الهاشتاج بالمحتوى بمثابة مدح للهجوم في حد ذاته.
2. إجراء الإنفاذ
أبلغت Meta المجلس في البداية أنه لم يتم إرسال رسالة إلى المستخدم عندما تمت تغطية المحتوى بشاشة تحذيرية بسبب مشكلة فنية. لكن، ردًا على أسئلة طرحها المجلس، حققت Meta في الأمر ووجدت أنه لا يتم إرسال إشعار إلى مستخدمي Instagram عند تغطية المحتوى بشاشة تحذيرية. في هذه الحالة، قد تكون إضافة شرح توضيحي يذكر فيه المستخدم صراحةً أنه لا يؤيّد العنف محاولةً للرد على فرض الشاشة التحذيرية على المحتوى. لذلك يجب أن تضمن Meta أن يتم إرسال إشعار إلى جميع المستخدمين عند تغطية المحتوى بشاشات تحذيرية، وإعلامهم بسبب اتخاذ هذا الإجراء.
يلاحظ المجلس أن المحتوى في هذه الحالة تمت إزالته لأن الفيديو قد تطابق مع فيديو شبه متماثل أُضيف عن طريق الخطأ إلى أحد بنوك التصعيدات التي تزيل المحتوى المتطابق تلقائيًا. في حالة "الرسم الكاريكاتوري للشرطة الكولومبية"، أفاد المجلس أنه يجب على Meta ضمان استعمال أنظمة فعالة وعمليات فحص قوية لتقييم المحتوى قبل إضافته إلى أيٍ من بنوك خدمة مطابقة الوسائط التي تحذف التطابقات دون إجراء مزيد من المراجعة. ويتفهم المجلس أنه في أعقاب الأزمة مباشرة، كانت Meta تحاول على الأرجح ضمان عدم انتشار المحتوى المخالف على منصاتها. ومع ذلك، نظرًا للتأثيرات المتضاعفة التي تتسبب فيها بنوك خدمة مطابقة الوسائط، تظل الضوابط بالغة الأهمية. ويجب أن تضمن Meta استعادة جميع المحتوى الذي تمت إزالته عن طريق الخطأ بسبب الإجراءات الخاطئة لهذه البنوك وإلغاء أي تبعات مترتبة عليها.
يساور المجلس القلق لأن بلاغات المستخدمين الثلاثة عن المحتوى لم تتم مراجعتها خلال الأيام الخمسة التي سبقت إزالة المحتوى. ردًا على أسئلة طرحها المجلس، أوضحت Meta أن ذلك كان بسبب مشكلة فنية غير معروفة ما زالت تُجري تحقيقات بشأنها. وردًا على المزيد من الأسئلة، أفادت Meta أنه ليس بمقدورها التأكد من النسبة المئوية للبلاغات من مستخدمي Instagram في دول أفريقيا الواقعة جنوب الصحراء الكبرى التي تم إغلاقها دون مراجعة.
8.2 الامتثال لقيم شركة Meta
يخلُص المجلس إلى أن إزالة المحتوى في هذه الحالة لم يكن متسقًا مع قيمة Meta المتمثلة في "حرية التعبير".
يُدرك المجلس المصالح المتنافسة في مواقف مثل ذلك الموقف في هذه الحالة. إذ يمس المحتوى في هذه الحالة كرامة وخصوصية ضحايا هجوم 5 يونيو، وكذلك عائلاتهم ومجتمعاتهم. وتظهر وجوه عدد من الضحايا في الفيديو ويمكن التعرُّف على هوياتهم على الأرجح.
يذكر المجلس أنه في حالة "فيديو صادم حول السودان" وحالة "القصيدة الروسية"، قد دعا إلى إدخال تحسينات على سياسة Meta المعنية بالمحتوى العنيف والصادم لمواءمتها مع قيم شركة Meta. وقد وجد المجلس أن معالجة السياسة للمحتوى الذي يشارك المحتوى الصادم بهدف "زيادة الوعي" لم تكن واضحة بما فيه الكفاية. في عدد من الحالات، وجد المجلس أن الشاشات التحذيرية يمكن أن تُمثل آليات مناسبة لتحقيق التوازن بين قيم شركة Meta مثل "حرية التعبير" و"الخصوصية" و"الكرامة" و"السلامة" (راجع قرارات المجلس الصادرة بشأن حالة "فيديو صادم حول السودان" وحالة "القصيدة الروسية"). ويتفق المجلس على أنه، في السياقات التي تشهد تضييق نطاق الساحة المدنية وتقييد حرية الإعلام بشكل غير مشروع من طرف الدولة، كما هو الحال في نيجيريا، تصبح قيمة شركة Meta المتمثلة في "حرية التعبير" أكثر أهمية من غيرها (راجع قرار المجلس الصادر بشأن حالة "الاحتجاجات في كولومبيا"). كما يتفق المجلس على أن زيادة الوعي بانتهاكات حقوق الإنسان تُعد جانبًا مهمًا للغاية من جوانب "حرية التعبير"، إذ يمكن أن تُعزز بدورها مستوى "السلامة" من خلال ضمان الوصول إلى المعلومات. ويمكن للشاشات التحذيرية تعزيز ممارسة "حرية التعبير" هذه، على الرغم من أنها قد تكون غير مناسبة حينما لا يكون المحتوى صادمًا بدرجة كافية لأنها تقلل بشكل كبير من إمكانية الوصول إلى المحتوى ومدى التفاعل معه (راجع قرار المجلس الصادر بشأن حالة "القصيدة الروسية").
للسبب نفسه أساسًا الموضح في القسم السابق، توصَّلت الأغلبية والأقلية إلى استنتاجات مختلفة بشأن ما تتطلبه قيم شركة Meta لتفسير علامات الهاشتاج التي أُضيفت إلى الشرح التوضيحي للفيديو. إذ تشير الأغلبية إلى وجود حاجة خاصة لحماية "حرية التعبير" حيثما يساهم المحتوى في لفت الانتباه إلى الانتهاكات الجسيمة لحقوق الإنسان والفظائع المرتكبة، ومنها الهجمات على الكنائس في نيجيريا. وترى الأغلبية أن علامات الهاشتاج هذه لا تتعارض مع التعاطف مع الضحايا الذي أعلنه المستخدم، والذي قام بالتعبير عنه في الشرح التوضيحي، وأن استخدامها يتسق مع جهود المستخدم المبذولة لزيادة الوعي. ونظرًا لأن الشرح التوضيحي ليس "ساديًا"، فإنه يتوافق مع قيم شركة Meta التي تستوجب استعادة المحتوى مع وضع شاشة تحذيرية مُقيَّدة بالعمر. في حين أن الأغلبية تقر بأن إضافة شاشة تحذيرية قد تؤثر في قيمة "حرية التعبير" بالحد من مدى انتشار المحتوى الذي يهدف إلى زيادة الوعي بانتهاكات حقوق الإنسان، بالنظر إلى إمكانية التعرُّف على هوية الضحايا، فمن الضروري تحقيق التوازن المناسب بين قيمتي "الكرامة" و"السلامة".
ترى الأقلية أن إزالة المحتوى تُبررها حماية "كرامة" و"سلامة" عائلات الضحايا والناجين، المُعرَّضين لخطر كبير بتكرار الشعور بالصدمة نتيجة التعرُّض لمحتوى يبدو أنه يقدم تعليقات سادية وساخرة حول مقتل أحبائهم. ومما يستدعي الإزالة أن وجوه العديد من الضحايا مرئية ويمكن التعرُّف عليها في الفيديو وأنها لم تظهر مشوشة. فيما يتعلق بقيمة "حرية التعبير"، وجدت الأقلية من الملائم أنه قد تمت مشاركة محتوى مشابه بدون علامات هاشتاج على المنصة خلف شاشة تحذيرية، وأن هذا المستخدم ما زال بإمكانه مشاركة محتوى مشابه بدون علامات هاشتاج متعلقة بالأسلحة النارية. وبالتالي، فإن إزالة Meta لهذا المحتوى لم تُعيق بشكل مفرط جهود المجتمع في نيجيريا لزيادة الوعي بهذه الفظائع أو السعي إلى محاسبة المسؤولين عنها.
8.3 الامتثال لمسؤوليات شركة Meta تجاه حقوق الإنسان
وجدت أغلبية أعضاء المجلس أن إزالة المحتوى في هذه الحالة تتفق مع مسؤوليات شركة Meta تجاه حقوق الإنسان. ومع ذلك، كما في حالة "فيديو صادم حول السودان"، تتفق الأغلبية والأقلية على أنه يجب على Meta تعديل سياسة المحتوى العنيف والصادم من أجل توضيح قواعد السياسة التي تؤثر في المحتوى الذي يهدف إلى زيادة الوعي بانتهاكات ومخالفات حقوق الإنسان.
حرية التعبير (المادة 19 من العهد الدولي الخاص بالحقوق المدنية والسياسية)
توفر المادة 19 من العهد الدولي الخاص بالحقوق المدنية والسياسية حماية واسعة لحرية التعبير، بما في ذلك الحق في التماس المعلومات وتلقيها. ومع ذلك، يمكن تقييد هذا الحق في ظل ظروف معينة، على النحو الذي يتم تقييمه وفقًا لاختبار ثلاثي يتألف من الشرعية، والهدف المشروع، والضرورة والتناسب. وقد اعتمد المجلس هذا الإطار لتحليل سياسات المحتوى وممارسات الإنفاذ في Meta. وقد حث مقرر الأمم المتحدة الخاص المعني بحرية التعبير شركات وسائل التواصل الاجتماعي على الاسترشاد بهذه المبادئ عند الإشراف على أشكال التعبير على الإنترنت، مع الأخذ في الاعتبار أن تنظيم أشكال التعبير على نطاق واسع من قبل الشركات الخاصة قد يثير مخاوف خاصة بهذا السياق (A/HRC/38/35، الفقرتان 45 و70).
1.الشرعية (وضوح القواعد وسهولة الوصول إليها)
يقتضي مبدأ الشرعية أن يكون أي تقييد للحق في حرية التعبير واضحًا ويسهل الوصول إليه، لكي يُدرك الأفراد ما يمكنهم فعله وما لا يمكنهم فعله (التعليق العام رقم 34، الفقرتان 25 و26). وقد يؤدي انعدام التحديد إلى تفسير ذاتي للقواعد وتنفيذها بشكل تعسفي. مبادئ سانتا كلارا بشأن الشفافية والمساءلة في الإشراف على المحتوى، التي أقرتها Meta، ترتكز على ضمان احترام الشركات لحقوق الإنسان بما يتماشى مع المعايير الدولية، بما في ذلك حرية التعبير. إنها تنص على أن الشركات يجب أن تضع "قواعد وسياسات مفهومة"، بما في ذلك "إرشادات مفصلة وأمثلة للمحتوى المسموح به وغير المسموح به".
قبل معالجة كل سياسة محتوى، يشير المجلس إلى توصياته السابقة لشركة Meta لتوضيح العلاقة بين إرشادات مجتمع Instagram ومعايير مجتمع فيسبوك (حالة "أعراض سرطان الثدي والعُري"، 2020-004-IG-UA-2 وحالة "عزلة أوجلان"، 2021-006-IG-UA-10)، ويحث Meta على استكمال تنفيذها لهذه التوصية في أقرب وقت ممكن.
المحتوى العنيف والصادم
يكرر المجلس الإعراب عن قلقه من أن سياسة المحتوى العنيف والصادم غير واضحة بما فيه الكفاية فيما يتعلق بكيفية زيادة وعي المستخدمين بالعنف المُصوَّر في إطار هذه السياسة. وفي هذه الحالة، توجد مخاوف إضافية بشأن المحتوى الذي تم انتقاؤه بموجب تعريف شركة Meta لمفهوم "السادية".
في القرار الصادر بشأن حالة "فيديو صادم حول السودان"، ذكر المجلس ما يلي:
أن سياسة المحتوى العنيف والصادم لا توضح كيف تسمح Meta للمستخدمين بمشاركة المحتوى الصادم لتعزيز الوعي بالانتهاكات أو توثيقها. وأن الأساس المنطقي لمعايير المجتمع، الذي يحدد أهداف السياسة، لا يتوافق مع قواعد السياسة. إذ تنص مبادئ السياسة على أن تسمح Meta للمستخدمين بنشر المحتوى الصادم "لمساعدة الأشخاص على تعزيز الوعي" بانتهاكات حقوق الإنسان، لكن السياسة تحظر جميع مقاطع الفيديو (سواء تمت مشاركتها لتعزيز الوعي أم لا) التي يظهر بها "أشخاص أو جثث في سياقات غير طبية إذا كانت تصوّر أوصالاً مُقطَّعة".
أوصى المجلس بأن تعمل شركة Meta على تعديل السياسة للسماح على وجه التحديد بمشاركة صور الأشخاص والجثث لزيادة الوعي بانتهاكات حقوق الإنسان أو توثيقها. كذلك أوصى Meta بوضع معايير لتعريف مقاطع الفيديو التي يمكن مشاركتها لهذا الغرض. وقد صرَّحت Meta أنها بصدد تقييم جدوى تلك التوصيات وأنها ستُجري عملية لوضع السياسات تستطيع من خلالها تحديد مدى إمكانية تنفيذها. قامت Meta أيضًا بتحديث مبادئ السياسة "للتأكد من أنها تعكس النطاق الكامل لإجراءات الإنفاذ التي تغطيها السياسة وتُضيف توضيحًا حول حذف المحتوى الصادم والملاحظات السادية بشكل استثنائي". ومع ذلك، يشير المجلس إلى أن القواعد المتعلقة بالمحتوى الذي يمكن أو يُحظر نشره بموجب هذه السياسة ما تزال عاجزة عن توفير الوضوح حول كيفية نشر المحتوى المحظور بأي وسيلة أخرى "لزيادة الوعي".
يشير المجلس أيضًا إلى أنه بعد أن أعلن علنًا عن اختياره لهذه الحالة وبدء إرسال أسئلة إلى الشركة، قامت Meta بتحديث مبادئ السياسة لتضمين إشارة إلى الحظر الحالي الذي تفرضه على الملاحظات "السادية". ومع ذلك، يظل هذا المصطلح بلا تعريف مُحدَّد علنًا، إذ تسرد السياسة ببساطة أنواع المحتوى التي لا يمكن للمستخدمين الإدلاء بملاحظات سادية تجاهها. يرى المجلس أن الاستخدام الشائع لمصطلح "السادية" يحمل دلالات على الفساد المتعمد والجدية، وذلك لا يتماشى بشكل مناسب مع توجيهات Meta الداخلية للمشرفين، الأسئلة المعروفة. إذ توضح هذه التوجيهات الداخلية أن تعريف Meta لمصطلح "السادية" مُحدَّد على نطاق واسع ليشمل أي استجابة فكاهية أو خطاب إيجابي حول معاناة إنسان أو حيوان. ويبدو أن هذا التعريف يضع مقياسًا أقل لإزالة المحتوى مقارنةً بما تنص عليه السياسة التي يتعامل معها العامة.
المضايقة والإساءة
بموجب سياسة المضايقة والإساءة في Meta، تحظر الشركة المحتوى الذي يسخر من وفاة الأفراد العاديين أو إصاباتهم الجسدية الخطيرة. ولم يجد المجلس أن صياغة هذه القاعدة تثير مخاوف بشأن الشرعية في هذه الحالة.
الأفراد الخطرون والمنظمات الخطرة
بموجب المستوى الأول من هذه السياسة، تحظر Meta الثناء على "أحداث العنف المخالفة" المُصنَّفة، وهي فئة تشمل الهجمات الإرهابية و"أعمال العنف متعددة الضحايا وجرائم القتل المتعدد". ويشير المجلس إلى أن Meta لا يبدو أن لديها سياسة متسقة فيما يتعلق بتوقيت إعلانها علنًا عن الأحداث التي صنَّفتها. وبدون هذه المعلومات، قد لا يعرف المستخدمون في العديد من السيناريوهات سبب إزالة المحتوى الخاص بهم.
2. الهدف المشروع
يجب أن تسعى القيود المفروضة على حرية التعبير إلى تحقيق هدف مشروع يتضمن حماية حقوق الآخرين، مثل الحق في الخصوصية للضحايا الذين يمكن التعرُّف على هوياتهم، بمن فيهم الأشخاص الذي فارقوا الحياة، المُصوَّرين في هذا المحتوى (التعليق العام رقم 34، الفقرة 28).
سبق للمجلس أن أجرى تقييمًا للسياسات الثلاثة المعنية في هذه الحالة، وقرر أن كل منها يسعى إلى تحقيق الهدف المشروع المتمثل في حماية حقوق الآخرين. وقد تم تقييم سياسة المحتوى العنيف والصادم في حالة "فيديو صادم حول السودان"، وتقييم سياسة المضايقة والإساءة في حالة "المظاهرات المؤيدة لنافالني في روسيا"، وتقييم سياسة الأفراد الخطرين والمنظمات الخطرة في حالة "ذِكر طالبان في التقارير الإخبارية".
3. الضرورة والتناسب
يجب أن تكون تقييدات حرية التعبير "مناسبة لتحقيق وظيفتها الحمائية، ويجب أن تكون أقل الوسائل تدخلاً مقارنة بغيرها من الوسائل التي يمكن أن تحقق النتيجة المنشودة؛ [و] يجب أن تكون متناسبة مع المصالح التي ستحميها" (التعليق العام رقم 34، الفقرة 34).
ناقش المجلس ما إذا كانت الشاشات التحذيرية تشكل قيدًا متناسبًا على حرية التعبير في القرار الصادر بشأن حالة "فيديو صادم حول السودان" والقرار الصادر بشأن حالة "القصيدة الروسية". لقد كانت طبيعة وشدة العنف المُصوَّر عاملين حاسمين في اتخاذ تلك القرارات، وكانت مسؤوليات Meta في مجال حقوق الإنسان تتعارض في بعض الأحيان مع سياسات المحتوى المعلنة من جانبها وآلية تطبيقها. تتعلق حالة "القصيدة الروسية" بصورة تم التقاطها من بعيد لشيء ما بدا أنه جثة شخص. لم يكن الوجه مرئيًا، ولم يكن من الممكن التعرُّف على هوية الشخص، ولم تكن هناك مؤشرات مُصوَّرة واضحة على وجود عنف. لذلك في هذه الحالة، وجد المجلس أن وضع شاشة تحذيرية لم يكن ضروريًا. على النقيض من ذلك، تتعلق حالة "فيديو صادم حول السودان" بفيديو يُظهر أوصالاً مُقطَّعة وأحشاءً مرئية، تم تصويرها من مسافة قريبة. ففي هذه الحالة، وجد المجلس أن المحتوى كان صادمًا بما يكفي لتبرير تطبيق شاشة تحذيرية عليه. وقد اعتمد القرار الأخير على استثناء الأهمية الإخبارية، الذي يُستخدم للسماح بالمحتوى المخالف في حالات استثنائية. وقد استخدمنا هذا الاستثناء لأن السياسة بحد ذاتها لم تكن واضحة بشأن كيفية تطبيقها للسماح بالمحتوى الذي يزيد الوعي بانتهاكات حقوق الإنسان.
في هذه الحالة القائمة، يتفق المجلس على أنه في غياب علامات الهاشتاج، كان من الضروري وضع شاشة تحذيرية لحماية حقوق الخصوصية للضحايا وعائلاتهم، وذلك أساسًا لأن وجوه الضحايا مرئية وموقع الهجوم كان معروفًا. وهذا يجعل الضحايا عرضة لإمكانية التعرُّف على هوياتهم، ويمسُّ بشكل مباشر حقوق الخصوصية للضحايا وحقوق عائلاتهم. كما أن تصوير الموتى أكثر وضوحًا وقساوةً بشكل ملحوظ مما كان عليه في حالة "القصيدة الروسية"، إذ تظهر الجثث المُلطخة بالدماء من مسافة أقرب بكثير. ومع ذلك، لا يوجد تقطيع أوصال ولا "أحشاء مرئية". لأنه إذا كان أيٌ من هذه المعالم ظاهرًا، كان سيتعين إزالة المحتوى أو منحه استثناء أهمية إخبارية للسماح له بالبقاء على المنصة. في حين أن الشاشة التحذيرية ستقلل من مدى انتشار المحتوى والتفاعل معه، إلا أنها إجراء متناسب لكل من احترام حرية التعبير مع احترام حقوق الآخرين أيضًا.
ترى أغلبية أعضاء المجلس أن إزالة المحتوى لم تكن تقييدًا ضروريًا أو متناسبًا على حرية التعبير التي يتمتع بها المستخدم، وأنه ينبغي استعادة المحتوى مع وضع شاشة تحذيرية توضح أنه "محتوى مزعج". وترى الأغلبية أن إضافة علامات الهاشتاج لم تتسبب في زيادة خطر الإضرار بحقوق خصوصية وكرامة الضحايا أو الناجين أو عائلاتهم، إذ توجد مشاهد مماثلة إلى حد كبير بالفعل على Instagram خلف شاشة تحذيرية.
من خلال تقليل عدد الأشخاص الذين سيشاهدون المحتوى بشكل كبير، أدى وضع شاشة تحذيرية في هذه الحالة إلى احترام خصوصية الضحايا (كما هو الحال مع حالات أخرى تدور حول مقاطع فيديو مماثلة)، مع السماح أيضًا بمناقشة الأحداث التي قد تسعى بعض البلدان إلى قمعها. وفي سياقات انعدام الأمن المستمر، من المهم بشكل خاص أن يتمكن المستخدمون من زيادة الوعي بالتطورات الأخيرة، وتوثيق انتهاكات حقوق الإنسان، وتعزيز المساءلة عن ارتكاب الفظائع.
بالنسبة إلى غالبية أعضاء المجلس، فإن الشرح التوضيحي ككل، بما في ذلك علامات الهاشتاج، لم يكن ساديًا وكان سيحتاج إلى إظهار السادية أو السخرية أو تمجيد العنف بمزيد من الوضوح لاعتبار إزالة المحتوى إجراءً ضروريًا ومتناسبًا.
تتفق أقلية من أعضاء المجلس مع الأغلبية من حيث نهجهم التحليلي ونظرتهم الشاملة لسياسات Meta في هذا المجال، لكنهم لا يتفقون على تفسيرهم لعلامات الهاشتاج، وبالتالي نتائج تحليلهم لحقوق الإنسان.
بالنسبة إلى الأقلية، فإن إزالة المنشور كانت تتماشى مع مسؤوليات Meta في مجال حقوق الإنسان ومبدأي الضرورة والتناسب. عندما تقع أحداث مثل هذا الهجوم، غالبًا ما تنتشر مقاطع الفيديو من هذا النوع انتشارًا واسعًا. وكان لدى المستخدم في هذه الحالة عدد كبير من المتابعين. لذلك فإنه من المهم أن تتصرف Meta بسرعة وعلى نطاق واسع استجابةً لحوادث مثل هذا الهجوم، بما في ذلك من خلال التعاون مع شركاء المجال، لمنع وتخفيف الأضرار التي قد تلحق بحقوق الإنسان التي يتمتع بها الضحايا والناجون وعائلاتهم. ويخدم ذلك أيضًا غرضًا عامًا أوسع يتمثل في مواجهة الإرهاب المنتشر على نطاق واسع الذي يسعى مرتكبو مثل هذه الهجمات إلى غرسه في المجتمعات، مع العلم أن وسائل التواصل الاجتماعي ستساهم في تضخيم الآثار النفسية الناجمة عن تلك الهجمات. بالنسبة إلى الأقلية، فإن مراعاة حقوق الإنسان أكثر أهمية من وضع احتمالية أن المستخدم في هذه الحالة كان يعتزم في المقام الأول استخدام علامات الهاشتاج للتواصل مع مجتمعه أو توسيع نطاق وصوله. إذ تفوق أهمية احترام حق الناجين والضحايا في الخصوصية والكرامة قيمة هذه الترابطات أو العلاقات لدى الأفراد المعنيين والجمهور الأوسع نطاقًا، وإن لم تكن غير ذات أهمية مقارنةً بتلك الحقوق. ذلك لأن وجوه الضحايا ظاهرة ويمكن التعرُّف عليها من مسافة قريبة في الفيديو، في مكان عبادة، وأجسادهم مُلطخة بالدماء. بجانب أن اقتران هذا المحتوى مع علامات الهاشتاج ذات الطابع العسكري حول الأسلحة في الشرح التوضيحي يبدو متنافرًا ويسخر من معاناة الآخرين. ومن المحتمل أن تعريض الضحايا وأفراد عائلاتهم لمثل هذا المحتوى قد يؤدي إلى تكرار شعورهم بالصدمة، حتى لو لم يكن هذا ما قصده المستخدم الناشر.
بالنسبة إلى الأقلية، تختلف هذه الحالة عن حالة "فيديو صادم حول السودان" التي ناقشها المجلس، إذ أشارت علامات الهاشتاج بوضوح شديد إلى نية المستخدم في توثيق انتهاكات حقوق الإنسان. وفي حين أن العبارات الصريحة عن نوايا زيادة الوعي بالأحداث لا ينبغي أن تكون مطلبًا من متطلبات السياسة (راجِع قراري المجلس الصادرين بشأن حالة "حزام وامبوم" وحالة "ذِكر طالبان في التقارير الإخبارية")، إلا أنها تتماشى مع مسؤوليات Meta في مجال حقوق الإنسان الداعية إلى إزالة علامات الهاشتاج التي تثير الحماس تجاه الأسلحة بشكل غير نقدي مع عرض صور واضحة المعالم لأشخاص قتلوا في حوادث إطلاق النار. في ظل هذه الظروف، تعتقد الأقلية أنه من الأفضل أن تُخطئ Meta وتتبنى قرار إزالة المحتوى.
9. قرار مجلس الإشراف
ألغى مجلس الإشراف قرار Meta بإزالة المحتوى، وطلب استعادة المنشور مع تغطيته بشاشة تحذيرية بعنوان "تمييز كمزعج".
10. البيان الاستشاري بشأن السياسة
سياسة المحتوى
1. يجب أن تُراجع Meta الصياغة المُعلنة للجمهور في سياسة المحتوى العنيف والصادم للتأكد من أنها تتماشى بشكل أفضل مع التوجيهات الداخلية للشركة حول كيفية تطبيق السياسة. وسيعتبر المجلس أن هذه التوصية قد دخلت حيز التنفيذ عندما يتم تحديث السياسة بتعريفات وأمثلة مناسبة، بالطريقة ذاتها التي تشرح بها Meta مفاهيم مثل الإشادة أو الثناء أو المدح في سياسة الأفراد الخطرين والمنظمات الخطرة.
الإنفاذ
2. ينبغي أن ترسل Meta إشعارًا إلى مستخدمي Instagram عند تطبيق شاشة تحذيرية على المحتوى الذي ينشرونه وتوضيح مبادئ السياسة المحددة الداعية لاتخاذ هذا الإجراء. وسيعتبر المجلس أن هذه التوصية قد دخلت حيز التنفيذ عندما تؤكد Meta إمكانية إرسال الإشعارات إلى مستخدمي Instagram بجميع اللغات التي تدعمها المنصة.
*ملاحظة إجرائية:
يتم إعداد قرارات مجلس الإشراف من قِبل لجان مكونة من خمسة أعضاء ويتم اعتمادها من أغلبية أعضاء المجلس. ولا يلزم بالضرورة أن تُعبّر قرارات المجلس عن وجهات النظر الشخصية لجميع الأعضاء.
بالنسبة إلى القرار المتخذ بشأن هذه الحالة، تم إجراء بحث مستقل نيابة عن المجلس. معهد أبحاث مستقل يقع مقره في جامعة جوتنبرج ويعتمد على فريق مكون من أكثر من 50 عالم اجتماع من ست قارات، فضلاً عن أكثر من 3200 خبير محلي من جميع أنحاء العالم. وقد تلقى المجلس أيضًا مساعدة من شركة Duco Advisors الاستشارية التي تركز على نقطة التقاء الجغرافيا السياسية والثقة والأمان والتكنولوجيا، ومجموعة Memetica المتخصصة في التحقيقات الرقمية التي تقدم خدمات استشارية بشأن المخاطر وخدمات استخباراتية بشأن التهديدات للتخفيف من الأضرار على الإنترنت.
العودة إلى قرارات الحالة والآراء الاستشارية المتعلقة بالسياسة