أسقط

فيلم وثائقي لمؤسسة إخبارية حول إساءة معاملة الأطفال في باكستان

ألغى مجلس الإشراف قرار شركة Meta بإزالة مقطع فيديو وثائقي نشرته إذاعة صوت أمريكا (VOA) باللغة الأردية، يكشف عن هويات الأطفال ضحايا الاعتداء الجنسي والقتل من باكستان في التسعينيات. ترى الأغلبية أنه كان ينبغي تطبيق استثناء الأهمية الإخبارية.

نوع القرار

معيار

السياسات والمواضيع

عنوان
الطفل/حقوق الطفل، سلامة، صحافة
معيار المجتمع
عُري الأطفال واستغلالهم جنسيًا

المناطق/البلدان

موقع
باكستان

منصة

منصة
Facebook

لقراءة هذا القرار باللغة الأردية، انقر هنا.
م مکمل فیصلہ اردو میں پڑھنے کے لیے، یہاں پر کلک کریں.

الملخص

ألغى مجلس الإشراف قرار شركة Meta بإزالة مقطع فيديو وثائقي نشرته إذاعة صوت أمريكا (VOA) باللغة الأردية، يكشف عن هويات الأطفال ضحايا الاعتداء الجنسي والقتل من باكستان في التسعينيات. وبينما وجد المجلس أن المنشور ينتهك معيار المجتمع بشأن عُري الأطفال وإساءة معاملتهم، واستغلالهم جنسيًا، ترى الأغلبية أنه كان ينبغي تطبيق استثناء الأهمية الإخبارية في هذه الحالة. ويعتقد أعضاء المجلس هؤلاء أن المصلحة العامة المستمرة المتمثلة في نشر تقارير عن إساءة معاملة الأطفال تفوق الأضرار المحتملة لكشف هوية الضحايا، الذين لم يُكتب لهم النجاة من هذه الجرائم التي وقعت قبل 25 عامًا. كان من الممكن للفيلم الوثائقي الذي أنتجته إذاعة صوت أمريكا باللغة الأردية، والذي اتسم بطبيعته الواقعية وحساسيته بالنسبة إلى الضحايا، أن يثري النقاش العام حول حالة الاعتداء الجنسي على الأطفال المنتشرة على نطاق واسع، والتي لا يتم تسليط الضوء عليها بالقدر الكافي في باكستان. وتسلط هذه الحالة الضوء أيضًا على كيفية إبلاغ Meta المستخدمين بشكل أفضل بالسياسات التي تستفيد من الاستثناءات وتلك التي لا تستفيد منها.

حول الحالة

في يناير 2022، نشرت إذاعة صوت أمريكا (VOA) باللغة الأردية بصفحتها على فيسبوك فيلمًا وثائقيًا مدته 11 دقيقة عن جاويد إقبال، الذي قتل واعتدى جنسيًا على ما يقرب من 100 طفل في باكستان في التسعينيات. ويتضمن الفيلم الوثائقي باللغة الأردية تفاصيل مثيرة للقلق عن الجرائم ومحاكمة المجرم. واحتوى الفيلم على صور لمقتطفات صحفية تُظهر بوضوح وجوه الأطفال الضحايا مع أسمائهم، في حين تعرض لقطات أخرى أشخاصًا يبكون ربما يكونوا من أقارب الضحايا. ويشير الشرح التوضيحي للمنشور إلى ظهور فيلم مختلف عن الجرائم في الأخبار مؤخرًا، ويحذر المشاهدين أيضًا من محتوى الفيلم الوثائقي. وقد شوهد هذا المنشور نحو 21.8 مليون مرة وجرت مشاركته نحو 18000 مرة.

بين يناير 2022 ويوليو 2023، أبلغ 67 مستخدمًا عن هذا المنشور. وبعد عمليات المراجعة التلقائية والبشرية، خلُصت Meta إلى أن المحتوى لم يكن مخالفًا. وقد تم أيضًا بشكل منفصل تمييز المنشور على أنه مخالف بواسطة نظام عمليات المراجعة المبكرة عالية الخطورة لدى شركة Meta نظرًا لاحتمال انتشاره على نطاق واسع. وقد أسفر ذلك عن إجراء مراجعة بشرية بواسطة فريق العمل الداخلي لشركة Meta من ذوي الخبرة في اللغة والسوق والسياسة (بدلاً من الاستعانة بمصادر خارجية للإشراف البشري على المحتوى). وبعد التصعيد داخليًا، ألغى فريق السياسة لدى شركة Meta القرار الأصلي الذي يقضي بالإبقاء على المنشور وبالتالي فقد تمت إزالته لانتهاكه سياسة الشركة بشأن عُري الأطفال وإساءة معاملتهم واستغلالهم جنسيًا. وقررت الشركة عدم تطبيق استثناء الأهمية الإخبارية على هذا المحتوى. وأحالت Meta هذه الحالة إلى المجلس.

أهم النتائج

ترى أغلبية أعضاء المجلس أنه كان يتعين على Meta تطبيق استثناء الأهمية الإخبارية على هذا المحتوى، والإبقاء على المحتوى على فيسبوك. ويرى المجلس أن المنشور انتهك معيار المجتمع بشأن عُري الأطفال وإساءة معاملتهم واستغلالهم جنسيًا لأنه يمكن التعرف على ضحايا إساءة معاملة الأطفال من خلال وجوههم وأسمائهم. ومع ذلك، ترى الأغلبية أن المصلحة العامة المترتبة على تقديم تقارير عن جرائم إساءة معاملة الأطفال هذه تفوق الأضرار المحتملة على الضحايا وأسرهم. وعند التوصل إلى القرار، أشارت الأغلبية إلى أن الفيلم الوثائقي تم إنتاجه لتعزيز الوعي، وإلى أنه لا يبالغ في ذِكر التفاصيل المروعة، والأهم من ذلك أن الجرائم وقعت قبل حوالي 25 عامًا، ولم ينجو أي من الضحايا. ويُعد مرور الوقت هو العامل الأكثر أهمية لأنه يعني تضاؤل الأضرار المباشرة المحتملة على الأطفال الضحايا. وفي الوقت نفسه، لا يزال الاهتمام العام بإساءة معاملة الأطفال قائمًا.

أكد الخبراء الذين استشارهم المجلس أن الاعتداء الجنسي على الأطفال منتشر في باكستان، ولكن لا يتم الإبلاغ عن هذه الحوادث بالشكل الكافي. وأحاطت الأغلبية علمًا بتقارير الخبراء حول سجل باكستان في قمع وسائل الإعلام المستقلة وإسكات المعارضين، مع فشلها في الوقت ذاته في منع الجرائم الخطيرة ضد الأطفال أو المعاقبة عليها. وهو ما يجعل منصات وسائل التواصل الاجتماعي ضرورية لتقديم تقارير عن هذه المشكلة والحصول على معلومات بشأنها. وفي هذه الحالة، قدم الفيلم الوثائقي الذي بثته إذاعة صوت أمريكا باللغة الأردية مساهمة مهمة في المناقشات العامة.

وتشير أقلية من أعضاء المجلس إلى أنه على الرغم من إثارة الفيديو لقضايا تحظى باهتمام عام، فقد كان من الممكن مناقشة هذه القضايا بالتفصيل دون إظهار أسماء ووجوه الضحايا، وبالتالي كان يجب إزالة المحتوى.

يعرب المجلس عن قلقه بشأن طول المدة الزمنية (18 شهرًا) التي استغرقتها شركة Meta لاتخاذ قرار بشأن هذا المحتوى، حيث تمت مشاهدة الفيديو 21.8 مليون مرة، ويتساءل عن مدى كفاية موارد شركة Meta المعنية بالتعامل مع مقاطع الفيديو باللغة الأردية.

في حين أن استثناء الأهمية الإخبارية النادر الاستخدام - وهو استثناء عام لا يمكن تطبيقه إلا من قبل فرق الخبراء في شركة Meta - كان ذا صلة في هذه الحالة، يشير المجلس إلى أنه لا تتوفر استثناءات محددة مثل تعزيز الوعي أو نشر التقارير في سياسة الشركة بشأن عُري الأطفال وإساءة معاملتهم واستغلالهم جنسيًا. وينبغي على شركة Meta تقديم مزيد من التوضيح للمستخدمين حول هذا الأمر.

بالإضافة إلى ذلك، كان من الممكن أن توضح الصيغة المعلنة من هذه السياسة بشكل أكبر ما يُعتبر تحديدًا لهوية الضحايا المزعومين "بالاسم أو بالصورة". وإذا تلقت إذاعة صوت أمريكا باللغة الأردية شرحًا أكثر تفصيلاً للقاعدة التي انتهكتها، لكان بإمكانها إعادة نشر المقطع الوثائقي دون الصور المسيئة أو، على سبيل المثال، مع التعتيم على وجوه الضحايا، إذا كان ذلك مسموحًا به.

قرار مجلس الإشراف

يلغي مجلس الإشراف قرار Meta بإزالة المحتوى، ويطلب استعادة المنشور.

يوصي المجلس Meta بما يلي:

  • إنشاء قسم جديد بكل معيار من معايير المجتمع يوضح الاستثناءات المطبقة بمختلف أنواعها. وعند وجود مبرر محدد لدى شركة Meta لعدم السماح باستثناءات معينة يتم تطبيقها على سياسات أخرى (مثل التقارير الإخبارية وتعزيز الوعي)، يجب على Meta تضمين هذا المبرر في هذا القسم الجديد.

*توفر ملخصات الحالة نظرة عامة على الحالات ولا تُشكّل سابقة قانونية.

القرار الكامل للمجلس بشأن الحالة

1. ملخص القرار

يلغى مجلس الإشراف قرار شركة Meta بإزالة منشور على فيسبوك من صفحة إذاعة صوت أمريكا باللغة الأردية يكشف عن هويات الأطفال ضحايا الاعتداء الجنسي والقتل في باكستان خلال فترة التسعينيات.

يرى المجلس أن المنشور انتهك نص معيار المجتمع بشأن عُري الأطفال وإساءة معاملتهم واستغلالهم جنسيًا، لأنه "حدد هوية ضحايا الاعتداء الجنسي على الأطفال بالاسم والصورة". ومع ذلك، يرى أغلبية أعضاء المجلس أنه كان ينبغي على شركة Meta تطبيق استثناء الأهمية الإخبارية في هذه الحالة لأن المصلحة العامة الحالية في باكستان بنشر تقارير عن الاعتداء على الأطفال تفوق الضرر المحتمل الناتج عن كشف هوية ضحايا حوادث وقعت منذ فترة طويلة. وترى أقلية من أعضاء المجلس أنه كان من الممكن مناقشة هذه الحالات دون إظهار أسماء ووجوه الضحايا، وبالتالي فإن قرار شركة Meta بإزالة المنشور له ما يبرره.

لإعلام المستخدمين بشكل أفضل بالحالات التي يتم فيها منح استثناءات السياسة لأغراض تعزيز الوعي أو نشر التقارير الإخبارية أو غيرها من الأسباب المبررة الأخرى، ينبغي على شركة Meta إنشاء قسم جديد بكل معيار من معايير المجتمع يوضح كافة استثناءات السياسة القابلة للتطبيق ويذكر الحيثيات عندما لا تكون هذه الاستثناءات قابلة للتطبيق. وينبغي أن يشير هذا القسم إلى الاستثناءات العامة مثل استثناء الأهمية الإخبارية الذي ينطبق على كل معايير المجتمع.

2. وصف الحالة ومعلومات أساسية عنها

في 28 يناير 2022، نشرت إذاعة صوت أمريكا باللغة الأردية، المُموَّلة من الحكومة الأمريكية، بصفحتها على فيسبوك مقطع فيديو وثائقي مدته 11 دقيقة عن جاويد إقبال، الذي أدين في محكمة باكستانية بارتكاب جرائم متسلسلة ضد الأطفال. وتضمّن الفيلم الوثائقي تفاصيل مستفيضة، باللغة الأردية، عن الجرائم التي شملت الاعتداء الجنسي على ما يقرب من 100 طفل وقتلهم في التسعينيات. كما تناول الفيلم اعتقال الجاني ومحاكمته في وقت لاحق.

تضمّن الفيديو صورًا لمقتطفات صحفية من عام 1999 تظهر وجوه الأطفال الضحايا إلى جانب أسمائهم والمدن التي ينتمون إليها. كما أظهر صورًا للأطفال تم اكتشافها خلال تفتيش منزل الجاني. ويصوّر الفيلم الوثائقي تفاصيل مستفيضة عن الأحداث وأدلة الإدانة التي عُثر عليها في مسرح الجريمة، بما في ذلك براميل من الحمض التي قيل إنه تم إذابة الجثث بها. واحتوى الفيلم أيضًا على لقطات لأشخاص يبكون يمكن أن يكونوا من أقارب الأطفال الضحايا.

ذكر الفيلم الوثائقي أن جاويد إقبال اعترف باستدراج الأطفال إلى منزله، حيث اعتدى عليهم جنسيًا، وخنقهم حتى الموت، وتخلص من جثثهم في الحمض. ووصف اعتقاله، إلى جانب شريكه الشاب، ومحاكمتهما والحكم عليهما بالإعدام، وأخيرًا انتحارهما أثناء الاحتجاز.

أشار الشرح التوضيحي للمنشور، باللغة الأردية، إلى أن فيلمًا مختلفًا عن الجرائم كان قد ظهر في الأخبار مؤخرًا. وقد وصف الشرح التوضيحي للمنشور أيضًا خطورة الجرائم، محذرًا من أن الفيلم الوثائقي يحتوي على تفاصيل حول الاعتداء الجنسي والعنف، بما في ذلك مقابلات مع أشخاص على صلة بالجاني وجرائمه.

تضم صفحة إذاعة صوت أمريكا باللغة الأردية على فيسبوك حوالي 5 ملايين متابع. وتمت مشاهدة المحتوى ما يقرب من 21.8 مليون مرة، وحصل على نحو 51000 تفاعل و5000 تعليق، وتمت مشاركته حوالي 18000 مرة. بين يناير 2022 ويوليو 2023، أبلغ ما مجموعه 67 مستخدمًا عن هذا المحتوى. وبعد عمليات المراجعة التلقائية والمراجعة البشرية الخارجية خلال تلك الفترة، خلُصت Meta إلى أن المحتوى لم يكن مخالفًا.

قام نظام عمليات المراجعة المبكرة عالية الخطورة (HERO) التابع لشركة Meta أيضًا بتمييز المحتوى على أنه مخالف ثماني مرات بسبب ارتفاع مؤشرات سرعة انتشاره بين يناير 2022 و15 يوليو 2023. وقد تم تصميم نظام المراجعة المبكرة عالية الخطورة لتحديد المحتوى الذي يُحتمل أن يكون مخالفًا والذي يتوقع أن تزيد احتمالات سرعة انتشاره على نطاق واسع. وبمجرد تحديد النظام لهذا المحتوى، يتم منحه الأولوية للمراجعة البشرية من قبل موظفي Meta الداخليين ممن لديهم خبرة في اللغة والسوق والسياسات (بخلاف المراجعين الخارجيين الذين يراجعون المحتوى).

في أواخر يوليو 2023، وبعد تقرير من نظام المراجعة المبكرة عالية الخطورة، قام فريق العمليات الإقليمية الداخلي لدى شركة Meta بتصعيد المحتوى إلى خبراء السياسات في الشركة وطلب تقييمه في ضوء استثناء الأهمية الإخبارية. وبعد هذه المراجعة التي جرت في أغسطس 2023، ألغى فريق السياسة لدى شركة Meta القرار الأصلي الذي يقضي بالإبقاء على المحتوى وبالتالي فقد تمت إزالته لانتهاكه سياسة الشركة بشأن عُري الأطفال وإساءة معاملتهم واستغلالهم. ولم تطبق Meta استثناء الأهمية الإخبارية على هذا المحتوى لأنها خلُصت إلى أن خطر الضرر المحتمل يفوق قيمة المصلحة العامة. ولم تحدد الشركة طبيعة ومدى هذا الخطر.

ولم تقم Meta بتطبيق إنذار ضد حساب المؤسسة الإخبارية التي نشرت المحتوى بسبب سياق المصلحة العامة وتعزيز الوعي الذي يهدف إليه الفيديو، بالإضافة إلى الفترة الزمنية الطويلة بشكل ملموس (18 شهرًا) بين نشر المحتوى وإزالته.

أحالت Meta هذه الحالة إلى المجلس لأنها اعتبرتها مهمة وصعبة حيث يتعين على الشركة "الموازنة بين سلامة الأطفال الضحايا وخصوصيتهم وكرامتهم وحقيقة أن اللقطات لا تؤكد على هويات الأطفال الضحايا، وأن الأحداث المصورة تعود إلى أكثر من 30 عامًا مضت، ويبدو أن الفيديو مصمم لتعزيز الوعي بجرائم القاتل المتسلسل ومناقشة القضايا التي تحظى بقيمة عالية على صعيد المصلحة العامة."

أخذ المجلس في حسبانه السياق التالي عند التوصل إلى قراره بشأن هذه الحالة. وجود قيود كبيرة على الساحة المدنية وحرية وسائل الإعلام في باكستان. وقد سلط خبراء حقوق الإنسان في الأمم المتحدة ومنظمات المجتمع المدني الضوء على أن الدولة الباكستانية لها تاريخ في تقييد حرية وسائل الإعلام واستهداف الأشخاص الذين ينتقدون السلطات بالاعتقال والإجراءات القانونية. وقد تعرضت وسائل الإعلام للتدخل، وسحب الإعلانات الحكومية، وفرض حظر على مقدمي البرامج التلفزيونية وعلى محتوى البث. وبالمثل، غالبًا ما يتعرض النشطاء عبر الإنترنت والمعارضون والصحفيون لتهديدات ومضايقات ترعاها الدولة. وقد وثقت وسائل الإعلام المستقلة أيضًا تقديم السلطات الباكستانية طلبات إلى شركات وسائل التواصل الاجتماعي لإزالة المحتوى. وذكرت Meta في مركز الشفافية التابع لها أنه بين يونيو 2022 ويونيو 2023، حظرت الشركة الوصول الجغرافي إلى 7665 منشورًا تقدمت السلطات الباكستانية ببلاغات عنها إلى شركة Meta. وقد تم تقييد الوصول المحلي إلى المحتوى بسبب انتهاكه المزعوم للقوانين المحلية، على الرغم من أنه لم يكن بالضرورة ينتهك سياسات شركة Meta.

وعلى الرغم من الاعترافات الخطية التي قيل إنها أرسلت بالبريد إلى الشرطة المحلية، لم تحقق السلطات بشكل جدي في الجرائم التي ارتكبها جاويد إقبال إلى أن قام الصحفيون الباكستانيون الذين حصلوا على رسالة الاعتراف وحققوا فيها بنشر موضوعًا في صحيفة "جانج" في 3 ديسمبر 1999، مع أسماء وصور 57 طفلاً من الضحايا المزعومين، مما أثار عائلاتهم وتسبب في غضب عام بشأن القضية. وقد تبع ذلك تغطية إعلامية واسعة النطاق وعالمية في باكستان وعلى الصعيد الدولي حول الجرائم واعتراف جاويد إقبال واعتقاله وإدانته وانتحاره في وقت لاحق.

بين يناير 2022 ويناير 2024، أعادت الأفلام والمقاطع الوثائقية والتقارير الإعلامية إشعال الاهتمام وأثارت المناقشات حول جاويد إقبال وجرائمه. وقد تم حظر فيلم "جاويد إقبال: القصة غير المروية لقاتل متسلسل"، الذي كان من المقرر عرضه في يناير 2022، لعدة أشهر من قبل المكتب المركزي للرقابة على الأفلام في باكستان ويرجع ذلك، بحسب تقارير إخبارية، إلى أن العنوان ينطوي على تمجيد لإقبال. وقد تم عرض الفيلم في وقت لاحق من هذا العام في مهرجان السينما الآسيوية في المملكة المتحدة. وأشار الخبراء الذين استشارهم المجلس ووسائل الإعلام المستقلة إلى أن المنتجين قاموا بتعديل الفيلم وتغيير اسمه إلى "ككري" (بناءً على لقب جاويد إقبال)، قبل إعادة تقديمه إلى مجلس الرقابة الباكستاني. وتمت الموافقة على الفيلم وإعادة إصداره في باكستان في يونيو 2023.

لا يزال الاعتداء الجنسي على لأطفال في باكستان منتشرًا. ووفقًا للخبراء الذين استشارهم المجلس،فقد كان هناك ما يقرب من 5.4 مليون بلاغ عن الاستغلال الجنسي للأطفال عبر الإنترنت في باكستان على وسائل التواصل الاجتماعي بين عامي 2020 و2022، بناءً على البيانات التي جمعها المركز الوطني للأطفال المفقودين والمستغلين (NCMEC). ويجمع المركز الوطني للأطفال المفقودين والمستغلين بلاغات عن المواد المتعلقة بالاستغلال الجنسي للأطفال على منصات وسائل التواصل الاجتماعي التي تتخذ من الولايات المتحدة مقراً لها، حيث تتعلق 90‏% من هذه البلاغات بمحتوى منشور على منصات Meta. وتفيد منظمة ساحل غير حكومية التي يقع مقرها في إسلام أباد، بأن ما متوسطه 12 طفلاً في اليوم تعرضوا للاعتداء الجنسي في باكستان خلال النصف الأول من عام 2023. وقد تم الإبلاغ عما يقرب من 75‏% من الحالات التي تزيد عن 2200 حالة خلال عام 2023 من إقليم البنجاب، وهو أكثر الأقاليم اكتظاظًا بالسكان في باكستان. وقد تم الإبلاغ عن جريمتين بشعتين أخريين في مدينة قصور، حيث تورطت عصابة في الاعتداء الجنسي على 280 طفلاً، واغتصاب وقتل طفلة تبلغ من العمر ست سنوات، حيث عرضت وسائل الإعلام صورًا بما في ذلك صورة لجثتها.

3. سُلطة ونطاق مجلس الإشراف

يتمتع المجلس بسلطة مراجعة القرارات التي تقدمها Meta للمراجعة (المادة 2، القسم 1 من اتفاقية المجلس؛ المادة 2، القسم 2.1.1 من اللائحة الداخلية).

يجوز للمجلس تأييد قرار شركة Meta أو إلغائه (المادة 3، القسم 5 من اتفاقية المجلس)، ويكون قراره بهذا الشأن ملزمًا للشركة (المادة 4 من اتفاقية المجلس). يجب على شركة Meta أيضًا تقييم جدوى تطبيق قرارها على أي محتوى مماثل له سياق موازٍ (المادة 4 من اتفاقية المجلس). وقد تتضمن قرارات المجلس توصيات غير مُلزِمة يجب على شركة Meta الاستجابة لها (المادة 3، القسم 4 من اتفاقية المجلس؛ المادة 4). وعندما تلتزم Meta بتنفيذ التوصيات، يراقب المجلس هذا التنفيذ.

4. مصادر السُلطة والإرشادات

استند تحليل المجلس في هذه الحالة إلى المعايير والسوابق التالية:

1. قرارات مجلس الإشراف

2. سياسات المحتوى لدى شركة Meta

تنص مبادئ سياسة عُري الأطفال وإساءة معاملتهم واستغلالهم جنسيًا على أن Meta لا تسمح بالمحتوى الذي "يستغل الأطفال جنسيًا أو يعرضهم للخطر." بموجب هذه السياسة، تزيل Meta أي "محتوى يحدد الضحايا المزعومين للاستغلال الجنسي بالاسم أو الصورة أو يسخر منهم".

استند تحليل المجلس إلى التزام Meta بتعزيز حرية الرأي، والتي تصفها الشركة بأنها "ذات أهمية قصوى" بالإضافة إلى قيم السلامة والخصوصية والكرامة.

استثناء الأهمية الإخبارية

تعرّف Meta استثناء الأهمية الإخبارية على أنه استثناء عام من السياسة يمكن تطبيقه على مستوى كل مجالات السياسة ضمن معايير المجتمع، بما في ذلك سياسة عُري الأطفال وإساءة معاملتهم واستغلالهم جنسيًا. ويسمح هذا الاستثناء ببقاء المحتوى الذي يعتبر مخالفًا في الظروف العادية على المنصة إذا كانت قيمة المصلحة العامة المترتبة على بقائه تفوق مخاطر حدوث الضرر. ووفقًا لشركة Meta، تتم عمليات التقييم هذه في "حالات نادرة" فقط، بعد التصعيد إلى فريق سياسة المحتوى. ويعمل هذا الفريق على تقييم ما إذا كان المحتوى المعني يشكّل تهديدًا وشيكًا للصحة أو السلامة العامة أو يعبر عن وجهات نظر تتم مناقشتها حاليًا كجزء من عملية سياسية. وتتم في هذا التقييم مراعاة الظروف الخاصة بالبلد، بما في ذلك وجود انتخابات جارية. وفي حين تمثل هوية المتحدث أحد الاعتبارات وثيقة الصلة، لا يقتصر تطبيق الاستثناء على المحتوى المنشور بواسطة المؤسسات الإخبارية.

وأشارت Meta إلى أنه في الفترة من 1 يونيو 2022 إلى 1 يونيو 2023، تم توثيق 69 استثناءً للأهمية الإخبارية فقط على مستوى العالم. وتم الإبلاغ عن أعداد مماثلة في العام السابق.

3. مسؤوليات شركة Meta تجاه حقوق الإنسان

تُرسي مبادئ الأمم المتحدة التوجيهية بشأن الأعمال التجارية وحقوق الإنسان (UNGP)، التي أقرها مجلس حقوق الإنسان التابع للأمم المتحدة عام 2011، إطار عمل تطوعي لمسؤوليات الأنشطة التجارية الخاصة فيما يتعلق بحقوق الإنسان. في عام 2021، أعلنت شركة Meta عن سياسة حقوق الإنسان الخاصة بالشركة، والتي أعادت التأكيد من خلالها على الالتزام باحترام حقوق الإنسان على نحو يتفق مع مبادئ الأمم المتحدة التوجيهية بشأن الأعمال التجارية وحقوق الإنسان. قد تكون المعايير الدولية التالية ذات صلة بتحليل المجلس لمسؤوليات شركة Meta تجاه حقوق الإنسان في هذه الحالة:

  • الحق في حرية التعبير: المادة 19 من العهد الدولي الخاص بالحقوق المدنية والسياسية (ICCPRالتعليق العام رقم 34، اللجنة المعنية بحقوق الإنسان 2011؛ تقارير مقرر الأمم المتحدة الخاص المعني بحرية الرأي والتعبير، A/74/486 ‏(2019)؛ A/HRC/38/35 ‏(2018)؛ A/69/335 ‏(2014) وA/HRC/17/27 ‏(2011).
  • مصلحة الطفل الفضلى: المادة 3، اتفاقية حقوق الطفل (UNCRC)؛ التعليق العام رقم 25، لجنة حقوق الطفل، (2021). علاوة على ذلك، تعترف المادة 17 من اتفاقية حقوق الطفل بالوظيفة الهامة التي تؤديها وسائل الإعلام بشأن حقوق الأطفال في الحصول على المعلومات لتعزيز صحتهم البدنية أو العقلية.
  • الحق في الخصوصية: المادة 17، العهد الدولي الخاص بالحقوق المدنية والسياسية، المادة 16 من اتفاقية حقوق الطفل.

5. المعلومات المقدَّمة من المستخدمين

تم إبلاغ كاتب المنشور بالمراجعة التي أجراها المجلس وإتاحة الفرصة له لتقديم بيان. لكنه لم يرسل أي رد.

6. المعلومات المقدَّمة من Meta

وفقًا لشركة Meta، فإن المنشور ينتهك معيار المجتمع بشأن عُري الأطفال وإساءة معاملتهم واستغلالهم جنسيًا لأنه يُظهر وجوهًا يمكن التعرف عليها لأطفال ضحايا للاستغلال الجنسي، إلى جانب أسمائهم. وتحدد Meta الفرد على أنه يمكن التعرف عليه من خلال الاسم أو الصورة إذا "تضمن المحتوى أي من المعلومات التالية: (1) ذكر اسم الفرد (الاسم الأول أو الأوسط أو الأخير أو الاسم الكامل) ما لم يذكر المحتوى صراحةً أن الاسم ملفق؛ أو (2) الصور ومقاطع الفيديو التي تُظهر وجه الفرد".

تميّز Meta بين المحتوى الذي يكشف هوية الضحايا البالغين والذي يكشف هوية الأطفال ضحايا الاعتداء الجنسي نظرًا "لانخفاض قدرة" الأطفال على منح الموافقة المستنيرة على كشف هويتهم. ونظرًا لهذا، فإن مخاطر معاودة إيذاء الأطفال، وتعرضهم للتمييز المجتمعي، وخطر ارتكاب المزيد من العنف ضدهم لا تزال كبيرة. لذلك، لا تطبق Meta أي استثناءات لسياسة عُري الأطفال وإساءة معاملتهم واستغلالهم جنسيًا على المحتوى الذي يكشف هوية ضحايا الاستغلال الجنسي المزعومين بالاسم أو الصورة، والذي تتم مشاركته بغرض تعزيز الوعي أو نشر التقارير عن الاعتداء أو إدانته.

أكد المدافعون عن حقوق الطفل لشركة Meta أنه يجب أن تعطي سياساتها الأولوية لسلامة الأطفال، خاصة في الحالات التي تتضمن أطفالًا ضحايا للاعتداء الجنسي. وذكر أصحاب المصلحة الخارجيون الآخرون إلى شركة Meta أن الهدف المتمثل في تجنب إيذاء القصر يجب أن يفوق الأهمية الإخبارية المحتملة المترتبة على كشف هوية الأطفال الضحايا.

طلب المجلس من Meta دراسة قرارها بعدم منح المحتوى استثناء الأهمية الإخبارية في هذه الحالة. ولاحظت Meta أنه على الرغم مما يمثله المحتوى من قيمة على صعيد المصلحة الهامة، فإن خطر الضرر الناجم عن كشف هويات الضحايا لا يزال كبيرًا. وعلى الرغم من أن الجرائم وقعت في التسعينيات، فقد كان الضحايا الذين تم كشف هويتهم أطفالًا، وكانت الانتهاكات التي عانوا منها ذات طبيعة عنيفة وجنسية.

في هذه الحالة، لم تقم Meta بتطبيق إنذار ضد حساب المؤسسة الإخبارية التي نشرت المحتوى بسبب المصلحة العامة وسياق تعزيز الوعي الذي انطوى عليه الفيديو، والفترة الزمنية الطويلة بشكل واضح بين نشر المحتوى وإزالته.

ردًا على أسئلة المجلس، أشارت Meta إلى أن الشركة تستخدم نظام عمليات المراجعة المبكرة عالية الخطورة (HERO) لاكتشاف المحتوى بشكل استباقي قبل أن يصل إلى ذروة سرعة انتشاره باستخدام عدد من الإشارات المختلفة لاكتشاف المحتوى. ويمنح هذا النظام أولوية المراجعة واتخاذ إجراء محتمل للمحتوى الذي يحتمل أن ينتشر سريعًا على نطاق واسع، وهو أحد الأدوات العديدة المستخدمة للتعامل مع المحتوى الإشكالي سريع الانتشار على المنصة.

طرح المجلس 15 سؤالاً كتابيًا على Meta. وتتعلق الأسئلة بخيارات سياسة Meta فيما يتعلق بسياسة عُري الأطفال وإساءة معاملتهم واستغلالهم جنسيًا، ونظام الإنذارات الذي تتبعه الشركة، ونظام عمليات المراجعة المبكرة عالية الخطورة. وأجابت Meta عن جميع الأسئلة البالغ عددها 15 سؤالاً.

7. التعليقات العامة

تلقى مجلس الإشراف أربعة تعليقات عامة استوفت شروط إرسال التعليقات. تم تقديم تعليقين من الولايات المتحدة وكندا وتعليق واحد من أوروبا وتعليق آخر من منطقة آسيا والمحيط الهادئ والأوقيانوس. للاطلاع على التعليقات العامة المقدمة مع موافقة على النشر، يرجى النقر هنا.

تناولت التعليقات الموضوعات التالية: أهمية حماية خصوصية وهوية ضحايا الاعتداء على الأطفال، وكذلك خصوصية العائلات؛ والتفاعل بين اتفاقية الأمم المتحدة لحقوق الطفل وسياسة شركة Meta بشأن عُري الأطفال وإساءة معاملتهم واستغلالهم جنسيًا؛ والسياق التعليمي والتوعوي للفيلم الوثائقي؛ ودور الصحفيين في نشر تقارير عن جرائم الاعتداء على الأطفال.

8. تحليل مجلس الإشراف

قبل المجلس هذه الإحالة من Meta لتقييم تأثير معيار مجتمع Meta بشأن عُري الأطفال وإساءة معاملتهم واستغلالهم جنسيًا على حقوق الأطفال الضحايا، لا سيّما في سياق نشر التقارير عن الجرائم بعد مرور فترة زمنية كبيرة. وتتعلق هذه الحالة بحماية الساحة المدنية، والتي تُعد من بين الأولويات الاستراتيجية للمجلس. نظر المجلس فيما إذا كانت استعادة هذا المحتوى ضرورية من خلال تحليل سياسات المحتوى لدى Meta، ومسؤولياتها تجاه حقوق الإنسان وقيمها.

8.1 الامتثال لسياسات المحتوى لدى Meta

يتفق المجلس مع Meta على أن المحتوى في هذه الحالة ينتهك القواعد الصريحة لمعيار المجتمع بشأن عُري الأطفال وإساءة معاملتهم واستغلالهم جنسيًا، حيث أظهر الفيديو وجوهًا يمكن التعرف عليها وتضمّن أسماء ضحايا الاعتداء على الأطفال.

مع هذا، ترى أغلبية أعضاء المجلس أنه كان يتعين على Meta تطبيق استثناء الأهمية الإخبارية والسماح ببقاء هذا المحتوى على فيسبوك، عند التصعيد. وترى الأغلبية أن المصلحة العامة المترتبة على تقديم تقارير عن جرائم الاعتداء على الأطفال التي تتسم بخصائص مماثلة لما شهدته هذه الحالة تفوق الضرر المحتمل على الضحايا وأسرهم. ويستند هذا الاستنتاج إلى حد كبير إلى حقيقة أن هذا الفيلم الوثائقي قد تم إنتاجه لتعزيز الوعي، وعدم سخريته من التفاصيل البشعة التي يتناولها أو المبالغة وإثارة العواطف بشأنها، والأهم من ذلك، أن الجرائم وقعت منذ حوالي 25 عامًا ولم تُكتب النجاة لأي من الضحايا.

وبالنسبة إلى الأغلبية، كان مرور فترة زمنية طويلة هو العامل الأكثر أهمية في هذه الحالة. ومع مرور الوقت، قد ينحسر التأثير المحتمل على حقوق الأطفال وأسرهم، في حين تظل المصلحة العامة في نشر تقارير عن الاعتداء على الأطفال والتصدي له في باكستان قائمة. وفي هذه الحالة، وقعت الجرائم ضد هؤلاء الأطفال منذ أكثر من 25 عامًا، وقد توفى جميع الأطفال الضحايا الذين يمكن التعرف عليهم والذين تم تصويرهم في الفيلم الوثائقي.

ولا يزال الاعتداء على الأطفال منتشرًا في باكستان (انظر القسم 2) وهو محل نقاش عام كبير. وأحاطت أغلبية أعضاء المجلس علمًا بتقارير الخبراء التي تفيد بأن لباكستان سجل في قمع وسائل الإعلام المستقلة وإسكات المعارضين، مع فشلها في الوقت ذاته في منع الجرائم الخطيرة ضد الأطفال أو المعاقبة عليها. لذلك، فإن منصات وسائل التواصل الاجتماعي ضرورية لجميع الأشخاص، بما في ذلك وسائل الإعلام الإخبارية، لنشر تقارير عن الاعتداء على الأطفال في باكستان والحصول على معلومات عنه. وقد كان هذا الفيلم الوثائقي دقيقًا وواقعيًا إلى حد كبير، وحساسًا تجاه الضحايا. وقد تم وضعه في سياق محدد ضد القرارات الحكومية الأخيرة بفرض رقابة على فيلم يتناول هذا الموضوع، وبالتالي فقد قدم مساهمة مهمة في المناقشات العامة.

ترى أقلية من أعضاء المجلس أنه لا يتعين على Meta تطبيق استثناء الأهمية الإخبارية في هذه الحالة، مع التأكيد على أن حماية كرامة وحقوق الأطفال الضحايا، وكذلك أسرهم، أمر بالغ الأهمية ويجب ألا يتأثر بمرور الوقت أو بأي اعتبارات أخرى كما أشارت الأغلبية. وتشير الأقلية إلى أنه على الرغم من إثارة الفيديو لقضايا تحظى باهتمام عام، فقد كان من الممكن مناقشة هذه القضايا بالتفصيل دون إظهار أسماء ووجوه الضحايا. وبالتالي، فإن إزالة المنشور تتوافق مع قيم Meta المتمثلة في الخصوصية والكرامة.

عند إجراء تقييم للأهمية الإخبارية، يشير المجلس إلى أنه من الضروري أن تنظر Meta في التأثيرات السلبية المحتملة على حقوق الإنسان الناتجة عن قرار الإبقاء على منشور أو إزالته. ويتم توضيح هذه الاعتبارات في القسم التالي.

8.2 الامتثال لمسؤوليات شركة Meta تجاه حقوق الإنسان

تجد أغلبية أعضاء المجلس أن إزالة هذا المنشور لم تكن ضرورية أو متناسبة، وأن استعادة المنشور إلى فيسبوك تتسق مع مسؤوليات Meta تجاه حقوق الإنسان.

حرية التعبير (المادة 19 من العهد الدولي الخاص بالحقوق المدنية والسياسية)

تنص الفقرة 2 من المادة 19 من العهد الدولي الخاص بالحقوق المدنية والسياسية على توفير حماية واسعة للخطاب السياسي والصحافة (التعليق العام رقم 34، (2011)، الفقرة 11). وقد صرح مقرر الأمم المتحدة الخاص المعني بحرية التعبير بأن الدول يمكن أن تشجع المؤسسات الإعلامية على التنظيم الذاتي للطريقة التي تغطي بها الأطفال وتتناولهم. واستشهد المقرر الخاص بمجموعة مشاريع المبادئ التوجيهية والمبادئ الصادرة عن الاتحاد الدولي للصحفيين، مشيرًا إلى أنها تضمنت "أحكامًا بشأن تجنب استخدام الصور النمطية والعرض المثير للقصص التي تتضمن الأطفال"، (A/69/335، الفقرة 63).

عند فرض الدولة لقيود على حرية التعبير، يجب أن تفي تلك القيود بمتطلبات الشرعية والهدف المشروع والضرورة والتناسب (الفقرة 3، المادة 19، العهد الدولي الخاص بالحقوق المدنية والسياسية). وتتم الإشارة إلى هذه المتطلبات غالبًا باسم "الاختبار الثلاثي". يستخدم المجلس إطار العمل هذا لتفسير التزامات Meta الطوعية تجاه حقوق الإنسان، سواء فيما يتعلق بالقرارات الفردية بشأن المحتوى الخاضع للمراجعة، وما يخبرنا به ذلك عن نهج Meta الأوسع تجاه إدارة المحتوى. وكما ذكر مقرر الأمم المتحدة الخاص المعني بحرية التعبير على الرغم من أن "الشركات لا تتحمل التزامات الحكومات، لكن تأثيرها يتطلب منها تقييم نفس النوع من الأسئلة المتعلقة بحماية حقوق مستخدميها في حرية التعبير،" (A/74/486، الفقرة 41).

1. الشرعية (وضوح القواعد وسهولة الوصول إليها)

يتطلب مبدأ الشرعية بموجب القانون الدولي لحقوق الإنسان أن تكون القواعد التي تحد من حرية التعبير واضحة ومتاحة لعامة الجمهور (التعليق العام رقم 34، الفقرة 25). يجب أن تصاغ القيود التي تحد من حرية التعبير بدقة كافية حتى يفهم الأفراد الأمور المحظورة ويضبطوا سلوكهم تبعًا لها (المرجع نفسه). وبتطبيق ذلك على Meta، يجب على الشركة توفير إرشادات للمستخدمين بشأن المحتوى المسموح به وغير المسموح به على المنصة. علاوة على ذلك، فإن القواعد التي تقيّد حرية التعبير "لا يجوز أن تمنح الأشخاص المسؤولين عن تنفيذها سلطة تقديرية مطلقة" ويجب أن تنص على توجيهات كافية للمكلفين بتنفيذها لتمكينهم من التحقق على النحو المناسب من أنواع التعبير التي تخضع للتقييد وتلك التي لا تخضع لهذا التقييد" ( A/HRC/38/35، الفقرة 46).

يرى المجلس أن سياسة عُري الأطفال وإساءة معاملتهم واستغلالهم جنسيًا، كما تم تطبيقها في هذه الحالة، واضحة بما فيه الكفاية للوفاء بمتطلبات الشرعية، ولكن يمكن إدخال تحسينات عليها.

يجب تزويد الصحفيين، مثل جميع المستخدمين، بإرشادات كافية حول كيفية التحدث عن الموضوعات الصعبة على منصات وسائل التواصل الاجتماعي في إطار القواعد. ويمكن أن يوضح للأشخاص بشكل أكبر أن مشاركة الصور التي يظهر فيها وجه أحد الضحايا من الأطفال أو اسمه غير مسموح بها عند مناقشة الحالات المتعلقة بالاعتداء على الأطفال. وترد تعريفات أكثر تفصيلاً لكشف الهوية من خلال الاسم أو الصورة في الإرشادات الداخلية، المتاحة فقط لمراجعي المحتوى لدى Meta. ويحث المجلس Meta على استكشاف إمكانية توفير مزيد من الوضوح حول ما يُعتبر بالضبط كشفًا لهوية الضحايا المزعومين "بالاسم أو الصورة"، بما في ذلك ما إذا كان مفهوم "الاسم" يشمل الأسماء الجزئية، وما إذا كان مفهوم "الصورة" يعني إظهار الوجوه فقط، و/أو يسمح بطمس الوجوه.

ويشير المجلس إلى أن Meta قد نظرت في إجراء تغييرات على السياسة في هذا الجانب ولكنها قررت عدم تضمين استثناء "تعزيز الوعي" في سياستها بشأن عُري الأطفال وإساءة معاملتهم واستغلالهم جنسيًا، مدعية أن هذا الموقف يتماشى مع المصالح الفضلى للطفل، المنصوص عليها في المادة 3 من اتفاقية حقوق الطفل. وأشارت الشركة إلى وجود مشكلات تتعلق بمعاودة إيذاء الأطفال وانخفاض قدرة الأطفال الضحايا على منح موافقة مستنيرة على ظهورهم أو الإشارة إليهم في التقارير المتعلقة بالاعتداء على الأطفال. ولأغراض الشفافية وتوفير إرشادات واضحة للمستخدمين، ينبغي أن تنص سياسة عُري الأطفال وإساءة معاملتهم واستغلالهم جنسيًا بوضوح على أنها لا تسمح بكشف هوية الأطفال ضحايا الاعتداء الجنسي، حتى عندما يكون القصد هو نشر تقارير عن هذا الاعتداء أو تعزيز الوعي به أو إدانته. ونظرًا لأن العديد من السياسات الأخرى تتضمن استثناءات من السياسة، ينبغي ألا تفترض Meta أن عدم الحديث عن قابلية الاستثناءات للتطبيق هو إشعار كافٍ بأن التقارير الإعلامية وجهود التأييد قد تزال ما لم تستوف شروطًا معينة من حيث احترام الكرامة والخصوصية. ويمكن صياغة هذا الإشعار على نحو مماثل للإرشادات الحالية الواردة في مبادئ السياسة، مع توضيح سبب فرض Meta حظرًا شاملاً على مشاركة الصور العارية للأطفال، على سبيل المثال، حتى عندما تكون نية آباء هؤلاء الأطفال بريئة.

يجب أن يشير هذا التحديث إلى أن Meta يمكن أن تمنح استثناء الأهمية الإخبارية في ظروف استثنائية للغاية. ويلاحظ المجلس أن تفسير Meta لهذا الاستثناء يتضمن مثالاً على أنها تسمح لأسباب تتعلق بالمصلحة العامة والأهمية التاريخية بصورة "رعب الحرب" لفان ثي كيم فوك، والتي يشار إليها أحيانًا بشكل غير رسمي باسم "فتاة النابالم".

يلاحظ المجلس أن استثناءات السياسة والاستثناءات العامة، أي استثناء الأهمية الإخبارية واستثناء روح السياسة، هي استثناءات مختلفة ولكن يصعب التمييز بينها. وفي حين أن كل معيار من معايير المجتمع قد ينص أو لا ينص على استثناءات معينة من السياسة، يمكن تطبيق الاستثناءات العامة على مستوى جميع مجالات السياسة ضمن معايير المجتمع. ولذلك، ينبغي على شركة Meta، من أجل توفير إرشادات واضحة يسهل وصول المستخدمين إليها، إنشاء قسم جديد ضمن كل معيار من معايير المجتمع يصف استثناءات السياسة والاستثناءات العامة التي يمكن تطبيقها. وعند وجود مبرر محدد لدى شركة Meta لعدم توفير استثناءات معينة يتم تطبيقها في السياسات الأخرى (مثل تعزيز الوعي)، يجب على Meta تضمين هذا المبرر في هذا القسم الجديد. وينبغي أن يشير هذا القسم إلى الاستثناءات العامة التي تنطبق على كل معايير المجتمع.

2. الهدف المشروع

يجب أن تسعى القيود المفروضة على حرية التعبير إلى تحقيق هدف مشروع، بما في ذلك حماية حقوق الآخرين وحماية النظام العام والأمن القومي.

في القرار الصادر بشأن حالة صحفي سويدي يصف حوادث عنف جنسي ضد قُصَّر، خلُص المجلس إلى أن سياسة عُري الأطفال وإساءة معاملتهم واستغلالهم جنسيًا تهدف إلى منع تعرض القاصرين لأضرار على أرض الواقع. ويرى المجلس أن قرار Meta في هذه الحالة والسياسة التي تمت بموجبها عملية الإزالة الأصلية تسعى إلى تحقيق الهدف المشروع المتمثل في حماية حقوق الأطفال ضحايا الاعتداء الجنسي في تعزيز صحتهم البدنية والعقلية (المادة 17 من اتفاقية حقوق الطفل) وحقهم في الخصوصية (المادة 17 من العهد الدولي الخاص بالحقوق المدنية والسياسية، والمادة 16 من اتفاقية حقوق الطفل)، بما يتماشى مع احترام المصالح الفضلى للطفل (المادة 3 من اتفاقية حقوق الطفل).

3. الضرورة والتناسب

يقتضي مبدأ الضرورة والتناسب أن أي قيود تُفرَض على حرية التعبير "يجب أن تكون مناسبة لتحقيق وظيفة الحماية المنوطة بها، ويجب أن تكون أقل الوسائل تدخلاً مقارنة بغيرها من الوسائل التي يمكن أن تحقق النتيجة المنشودة، ويجب أن تكون متناسبة مع المصلحة التي ستحميها،" (التعليق العام رقم 34، الفقرات 33-34).

تنص المادة 3 من اتفاقية حقوق الطفل على أنه "في جميع الإجراءات التي تتعلق بالأطفال،... يولي الاعتبار الأول لمصالح الطفل الفضلى." وتماشيًا مع ذلك، تشير المبادئ التوجيهية لليونيسف للصحفيين الذين يقدمون تقارير عن الأطفال إلى أنه ينبغي احترام حقوق وكرامة كل طفل في جميع الظروف، وأنه ينبغي حماية المصالح الفضلى للطفل قبل أي اعتبار آخر، بما في ذلك الدفاع عن قضايا الأطفال وتعزيز حقوقهم.

ولاحظت لجنة حقوق الطفل أنه ينبغي للدول أن تراعي جميع حقوق الطفل، بما في ذلك "الحق في حمايته من الضرر وفي إيلاء الاعتبار الواجب لآرائه"، (التعليق العام رقم 25، الفقرة 2). وأبرزت اللجنة كذلك أن "الخصوصية أمر حيوي لاستقلال الأطفال وكرامتهم وسلامتهم ولممارسة حقوقهم" وأنه "قد تنشأ التهديدات ...عندما يُفشي شخص غريب معلومات عن طفل ما" على الإنترنت (التعليق العام رقم 25، الفقرة 67).

يؤكد المجلس أن حظر Meta للمحتوى الذي يكشف هوية ضحايا الاستغلال الجنسي للأطفال بالاسم أو الصورة يشكّل سياسة ضرورية ومتناسبة. وستكون الظروف التي يمكن في ظلها الخروج عن هذه القاعدة استثنائية وتتطلب تقييمًا مفصلاً للسياق من قبل خبراء في هذا الموضوع (للاطلاع على معايير مماثلة أو إضافية تتعلق بالنظر في الظروف الاستثنائية عند تحديد ما إذا كان يُسمح بكشف هوية الأشخاص الذين يعيشون أوضاعًا هشة، انظر حالة مقطع فيديو لأسرى حرب أرمينيين).

بالنسبة إلى أغلبية أعضاء المجلس، كان يجب على شركة Meta الإبقاء على هذا المحتوى على المنصة بموجب استثناء الأهمية الإخبارية. وتؤكد الأغلبية أن ترك المحتوى بموجب استثناء الأهمية الإخبارية كان متسقًا مع المصالح الفضلى للأطفال في هذه الحالة، والتي حددتها Meta بحق باعتبارها شاغلاً يجب أن يحظى بأهمية قصوى.

بالنسبة إلى الأغلبية، توفر ثلاثة عوامل رئيسية مجتمعة الأساس لاستثناء الأهمية الإخبارية. وقد شكّل مرور الوقت العامل الرئيسي في هذه الحالة إلى جانب حقيقة أن جميع الأطفال الضحايا المعنيين قد توفوا، مما يقلل من الضرر المباشر المحتمل لهم. ثانيًا، لا يزال الاعتداء الجنسي على الأطفال ظاهرة موجودة على نطاق واسع ولكن لا يتم الإبلاغ عنها في كثير من الأحيان في باكستان. ثالثًا، لا يضفي الفيلم الوثائقي المعني طابع الإثارة على الحالة، ولكنه يعزز الوعي بطريقة تكاد تكون تعليمية، ويمكن أن يساعد في إثراء النقاش العام بشأن أحد المخاوف الرئيسية المتعلقة بحقوق الإنسان التي طالما عانت منها باكستان ودول أخرى.

تلاحظ أغلبية أعضاء المجلس أنه في حين يمكن طمس صور وأسماء الضحايا المعروضة في مقتطفات الصحف والصور القديمة، فإن إزالة الفيلم الوثائقي بأكمله في ظل جميع العوامل المذكورة أعلاه أمر غير متناسب. وبدلاً من ذلك، يمكن لشركة Meta استكشاف تدابير بديلة لإبلاغ المستخدمين بالسياسة ذات الصلة وتوفير حلول تقنية لمنع الانتهاكات، كما هو مبين أدناه. ونظرًا لكافة التجميعات المحددة لجميع العوامل المذكورة أعلاه، كان يجب منح الفيلم الوثائقي استثناء الأهمية الإخبارية.

وبالنسبة لأقلية من أعضاء المجلس، فإن قرار Meta بإزالة هذا المحتوى وعدم تطبيق استثناء الأهمية الإخبارية يتماشى مع مسؤوليات Meta تجاه حقوق الإنسان ويتسق مع المصالح الفضلى للطفل في هذه الحالة. وتعتقد هذه الأقلية أنه ينبغي أن تعطي مثل هذه التقارير الأولوية لكرامة الأطفال ضحايا الاعتداء وأن تضمن احترام حقوقهم في الخصوصية بغض النظر عن مرور الوقت والقيمة المفترضة لهذا المحتوى فيما يتعلق بالنقاش العام.

يؤكد أعضاء المجلس هؤلاء أنه عند نشر تقارير عن الاعتداء على الأطفال، يتحمل الصحفيون والمؤسسات الإعلامية مسؤولية أخلاقية عن اتباع قواعد السلوك المهني. ونظرًا لأن وسائل التواصل الاجتماعي القائمة على التفاعل يمكن أن تحفز على الإثارة و"العناوين المثيرة"، فمن المناسب أن تعتمد Meta سياسات صارمة بشأن المحتوى تتطلب من وسائل الإعلام نشر تقارير عن المسائل الحساسة التي تؤثر على الأطفال بطريقة مسؤولة. وسيتفق ذلك مع معايير حقوق الإنسان المعمول بها التي تشجع على توفير عملية "إبلاغ قائمة على الأدلة لكنها لا تكشف هوية الأطفال الضحايا والناجين"، (التعليق العام رقم 25، الفقرة 57)، والتي "تشجع وسائل الإعلام على توفير معلومات ملائمة بشأن جميع الجوانب المتعلقة ... باستغلال الأطفال والاعتداء عليهم جنسيًا، باستخدام مصطلحات ملائمة، مع احترام حق الطفل الضحية أو الطفل شاهد الإثبات في الخصوصية والسرية في جميع الأوقات" (المبادئ التوجيهية للبروتوكول الاختياري لاتفاقية حقوق الطفل، الفقرة 28 و).

في حين أن المحتوى في هذه الحالة يتعلق بمسألة تحظى باهتمام عام، تعتقد الأقلية أن اشتراط Meta الالتزام الصارم بمعايير أخلاقيات الصحافة من شأنه أن يسمح بتقديم تقارير عن هذه الحالات بطريقة تحترم كرامة الضحايا وأسرهم وحقوقهم في الخصوصية. وتؤكد أقلية من أعضاء المجلس أيضًا أن قرار Meta بعدم تطبيق إنذار على حساب المؤسسة الإخبارية عندما أزالت المحتوى بشكل صحيح كان قرارًا متناسبًا.

على الرغم من أن المجلس يلغي قرار Meta بإزالة هذا المنشور، فإنه لا يزال يشعر بالقلق لأن الشركة استغرقت 18 شهرًا للتوصل إلى قرار بشأن محتوى اعتبرته في النهاية مخالفًا على الرغم من تقديم العشرات من بلاغات المستخدمين ووضع علامات على المنشور بواسطة نظام التنبؤ بسرعة الانتشار الخاص بالشركة. وينبغي على شركة Meta أن تحقق في أسباب ذلك وتقييم ما إذا كانت أنظمتها أو مواردها الخاصة بمراجعة مقاطع الفيديو باللغة الأردية كافية (انظر ذكر طالبان في التقارير الإخبارية). وتعد الأنظمة الفعّالة ضرورية لضمان إحالة هذه المنشورات، عند الضرورة، إلى الفرق الداخلية التي تتمتع بالخبرة اللازمة لتقييم مدى وجود سبب يتعلق بالمصلحة العامة يبرر إبقاء المحتوى على المنصة. وقد شكّل المحتوى في هذه الحالة مثالاً على المحتوى سريع الانتشار (الذي جذب أكثر من 21.8 مليون مشاهدة) والذي كان ينبغي اكتشافه بسرعة، ليس فقط لمنع الضرر المحتمل، ولكن أيضًا لتقييم أهميته الإخبارية.

ويشير المجلس أيضًا إلى أنه لو تلقت إذاعة صوت أمريكا باللغة الأردية، وهي المؤسسة الإعلامية التي نشرت هذا المحتوى، تفسيرًا أكثر تفصيلًا لخط السياسة الذي انتهكته، لكان بإمكانها بسهولة إعادة نشر المحتوى في شكل منقح، على سبيل المثال، بعد إزالة المقاطع التي تحتوي على صور مسيئة أو عن طريق طمس وجوه الضحايا. وفي هذا الصدد، ينبغي على شركة Meta النظر في تزويد المستخدمين بإشعارات أكثر تحديدًا بشأن الانتهاكات، تمشيًا مع توصية المجلس رقم 1 في حالة الأرمن في أذربيجان والتوصية رقم 2 في أعراض سرطان الثدي والعُري. وبالإضافة إلى ذلك، ولتيسير الأمر للمستخدمين والحد من خطر قيامهم بتعريض الأطفال للخطر، يمكن لشركة Meta استكشاف إمكانية تزويد المستخدمين بتعليمات أكثر تحديدًا أو بإمكانية الوصول، ضمن منتجاتها، إلى أدوات مثل أدوات طمس الوجوه في مقاطع الفيديو حتى يتمكنوا من الالتزام بسهولة أكبر بسياسات Meta التي تحمي حقوق الأطفال. ويمكن لشركة Meta أيضًا النظر في جدوى تعليق هذا المحتوى لفترة زمنية محددة قبل إزالته بشكل دائم، إذا لم يتم تعديله بشكل صحيح (انظر التوصية رقم 13 في الرأي الاستشاري بشأن سياسات المحتوى حول مشاركة معلومات محل الإقامة الخاصة). ويمكن إبلاغ مؤلف المحتوى ذي الصلة بأنه يمكنه خلال فترة التعليق تجنب الإزالة اللاحقة لمحتواه إذا استخدم هذه الأداة لجعل المحتوى متوافقًا مع المعايير.

9. قرار مجلس الإشراف

يلغي مجلس الإشراف قرار Meta بإزالة المحتوى، ويطالبها باستعادة المنشور.

10. التوصيات

سياسة المحتوى

1. لتزويد المستخدمين بمعلومات أفضل عن إمكانية منح استثناءات من السياسة، يجب على شركة Meta إنشاء قسم جديد ضمن كل معيار من معايير المجتمع يوضح بالتفصيل الاستثناءات التي يمكن تطبيقها. وعند وجود مبرر محدد لدى شركة Meta لعدم السماح باستثناءات معينة يتم تطبيقها على سياسات أخرى (مثل التقارير الإخبارية وتعزيز الوعي)، يجب على Meta تضمين هذا المبرر في هذا القسم من معايير المجتمع.

وسيعتبر المجلس أن هذه التوصية قد دخلت حيز التنفيذ عندما يتضمن كل معيار من معايير المجتمع القسم الموضح ومبررات الاستثناءات التي يمكن أو لا يمكن تطبيقها.

*ملاحظة إجرائية:

تتولى لجان من خمسة أعضاء مسؤولية إعداد قرارات مجلس الإشراف وتعتمدها أغلبية أعضاء المجلس. ولا يلزم بالضرورة أن تُعبّر قرارات المجلس عن وجهات النظر الشخصية لجميع الأعضاء.

بالنسبة إلى القرار المتخذ بشأن هذه الحالة، تم إجراء بحث مستقل نيابة عن المجلس. وقد تلقى المجلس مساعدة من شركة Duco Advisors، وهي شركة تركز على نقطة التقاء الجغرافيا السياسية والثقة والأمان والتكنولوجيا. وقد تم تقديم تحليلات أيضًا بواسطة Memetica، وهي مؤسسة متخصصة في الأبحاث مفتوحة المصدر عن اتجاهات وسائل التواصل الاجتماعي.

العودة إلى قرارات الحالة والآراء الاستشارية المتعلقة بالسياسة