قرار قضية متعددة

صور فاضحة بالذكاء الاصطناعي لشخصيات عامة نسائية

في حالتين اشتملتا على صور فاضحة تم إنشاؤها باستخدام الذكاء الاصطناعي تشبه شخصيات عامة نسائية من الهند والولايات المتحدة، يرى مجلس الإشراف أنه كان ينبغي إزالة المنشورين من منصات Meta.

2 تم تضمين من الحالات في هذه الحزمة

أسقط

IG-JPEE85LL

حالة بشأن إساءة ومضايقة على Instagram

منصة
Instagram
معيار
المضايقة والإساءة
موقع
الهند
Date
تم النشر بتاريخ تم النشر بتاريخ 25 تَمُّوز 2024
أيد

FB-4JTP0JQN

حالة بشأن إساءة ومضايقة على فيسبوك

منصة
Facebook
معيار
المضايقة والإساءة
موقع
اليونان,المملكة المتحدة,الولايات المتحدة
Date
تم النشر بتاريخ تم النشر بتاريخ 25 تَمُّوز 2024

الملخص

في حالتين اشتملتا على صور فاضحة تم إنشاؤها باستخدام الذكاء الاصطناعي تشبه شخصيات عامة نسائية من الهند والولايات المتحدة، يرى مجلس الإشراف أنه كان ينبغي إزالة المنشورين من منصات Meta. وتؤثر الصور الحميمية المزيفة باستخدام الذكاء الاصطناعي بشكل غير متناسب على النساء والفتيات، مما يقوض حقوقهن في الخصوصية والحماية من التعرض لأضرار نفسية أو بدنية. ويعد فرض قيود على هذا المحتوى أمرًا مشروعًا لحماية الأفراد من إنشاء صور جنسية ونشرها دون موافقتهم. ونظرًا لخطورة الأضرار الناجمة عن هذا الأمر، تعد إزالة المحتوى هي الطريقة الفعّالة الوحيدة لحماية الأشخاص المتضررين. ولا تعتبر إضافة تسميات إلى المحتوى الذي تم التلاعب به إجراءً مناسبًا في هذه الحالة لأن الأضرار ناجمة عن مشاركة هذه الصور ومشاهدتها، وليس فقط عن خداع الأشخاص بشأن صحتها. وتسعى توصيات المجلس إلى جعل قواعد Meta بشأن هذا النوع من المحتوى بديهية بشكل أكبر، وتسهيل قيام المستخدمين بالإبلاغ عن الصور الجنسية غير التوافقية.

حول الحالات

تنطوي هاتان الحالتان على صور تم إنشاؤها باستخدام الذكاء الاصطناعي لنساء عاريات، إحداهما تشبه شخصية عامة هندية والأخرى تشبه شخصية عامة أمريكية. في الحالة الأولى، نشر حساب على Instagram يقتصر على مشاركة صور يتم إنشاؤها أو التلاعب بها باستخدام الذكاء الاصطناعي لنساء هنديات صورة لظهر امرأة عارية بوجه مرئي، كجزء من مجموعة صور. تضمنت هذه المجموعة أيضًا صورة مماثلة للمرأة وهي ترتدي ملابس البحر، والتي من المحتمل أن تكون المادة المصدر للصورة الفاضحة الناتجة عن التلاعب باستخدام الذكاء الاصطناعي. وتنطوي الحالة الثانية أيضًا على صورة فاضحة تم إنشاؤها باستخدام الذكاء الاصطناعي تشبه شخصية عامة نسائية، هذه المرة من الولايات المتحدة. ويتم في هذه الصورة، التي نُشرت في إحدى مجموعات فيسبوك المتخصصة في نشر إبداعات الذكاء الاصطناعي، تحسس جسد المرأة العارية. وقد تضمّن الشرح التوضيحي اسم الشخصية الشهيرة التي تشبه المرأة العارية.

في الحالة الأولى (الشخصية العامة الهندية)، أبلغ أحد المستخدمين عن المحتوى إلى Meta باعتباره إباحيًا، ولكن نظرًا لعدم مراجعة البلاغ في غضون 48 ساعة، فقد تم إغلاقه تلقائيًا. ثم تقدم المستخدم بطعن إلى Meta، ولكن تم إغلاقه تلقائيًا أيضًا. وفي النهاية، تقدم المستخدم بطعن إلى المجلس. ونتيجة لوقوع اختيار المجلس على هذه الحالة، قررت Meta أن قرارها الأصلي بترك المحتوى على Instagram كان خاطئًا؛ ومن ثمَّ، أزالت الشركة المنشور لانتهاكه معيار المجتمع بشأن المضايقة والإساءة. وفي وقت لاحق، وبعد أن بدأ المجلس مداولاته، قامت Meta بتعطيل الحساب الذي نشر المحتوى وأضافت الصورة الفاضحة إلى بنك خدمة مطابقة الوسائط (MMS).

في الحالة الثانية (الشخصية العامة الأمريكية)، كانت الصورة الفاضحة قد أضيفت بالفعل إلى بنك خدمة مطابقة الوسائط لانتهاك سياسة Meta بشأن المضايقة والإساءة، وبالتالي تمت إزالتها تلقائيًا. تعثر هذه البنوك تلقائيًا على الصور التي حددها بالفعل مراجعون بشريون على أنها تنتهك قواعد Meta وتقوم بإزالتها. وقد تقدم المستخدم الذي نشر الصورة التي تم إنشاؤها باستخدام الذكاء الاصطناعي بطعن ولكن تم إغلاقه تلقائيًا. ليقوم بعدها المستخدم بتقديم طعن إلى المجلس لاستعادة منشوره.

تتكون الصور الحميمية المزيفة باستخدام الذكاء الاصطناعي من وسائط اصطناعية تم التلاعب بها رقميًا لإظهار أشخاص حقيقيين بطريقة جنسية. أصبح إنشاء هذه الصور أسهل، حيث يتطلب الأمر عددًا أقل من الصور لإنشاء صورة واقعية. ويشير أحد التقارير إلى زيادة بنسبة 550‏% في مقاطع الفيديو المزيفة باستخدام الذكاء الاصطناعي على الإنترنت منذ عام 2019، والغالبية العظمى منها تصوير جنسي لأفراد حقيقيين ويستهدف النساء.

أهم النتائج

يرى المجلس أن الصورتين انتهكتا قاعدة Meta التي تحظر "الصور الجنسية المُهينة التي تم إعدادها باستخدام برنامج فوتوشوب" بموجب سياسة المضايقة والإساءة. من الواضح أن الصور تم تعديلها لإظهار وجوه شخصيات عامة حقيقية على جسم عارٍ مختلف (حقيقي أو خيالي)، في حين أن القرائن السياقية، بما في ذلك علامات الهاشتاج والمكان الذي نُشر فيه المحتوى، تشير أيضًا إلى أنه قد تم إنشاؤها باستخدام الذكاء الاصطناعي. في الحالة الثانية (الشخصية العامة الأمريكية)، يوجد انتهاك إضافي لسياسة العُري والنشاط الجنسي للبالغين حيث تُظهر الصورة الفاضحة المرأة وهي تعصر ثديها. كانت إزالة كلا المنشورين متسقة مع مسؤوليات Meta تجاه حقوق الإنسان.

يعتقد المجلس أنه ينبغي أن يكون الأشخاص الذين يستخدمون منصات Meta قادرين على فهم القواعد. في حين كان من المفترض أن يتسم مصطلح "الصور الجنسية المُهينة التي تم إعدادها باستخدام برنامج فوتوشوب" بالوضوح الكافي للمستخدمين الذين قاموا بالنشر في هاتين الحالتين، فإنه لم يكن واضحًا بالقدر الكافي للمستخدمين بشكل أعم. عندما سأل المجلس Meta عن المعنى، قالت الشركة إن المصطلح يشير إلى "الصور التي يتم التلاعب بها وإضفاء طابع جنسي عليها بطرق من المرجّح أن تكون غير مرغوب بها من قبل الشخص المستهدف وبالتالي يتم اعتبارها مهينة". ويلاحظ المجلس أن استخدام مصطلح مختلف مثل "غير توافقي" سيكون وصفًا أوضح لشرح فكرة التعديلات الجنسية غير المرغوب بها للصور. بالإضافة إلى ذلك، يجد المجلس أن نطاق مصطلح "فوتوشوب" محدود للغاية ولا يشمل مجموعة التقنيات المتاحة اليوم للتلاعب بالوسائط، خاصة الذكاء الاصطناعي التوليدي. يجب أن تحدد Meta في هذه القاعدة أن هذا الحظر على المحتوى يشمل هذا النطاق الأوسع من تقنيات تعديل الصور.

ولضمان أن تكون القواعد التي تحظر الصور الجنسية غير التوافقية أكثر بداهة، يرى المجلس أنها يجب أن تندرج تحت معيار المجتمع بشأن الاستغلال الجنسي للبالغين، بدلاً من معيار المجتمع بشأن المضايقة والإساءة. في كلتا الحالتين، من غير المرجّح أن ينظر المستخدمون إلى الأمر باعتباره قضية مضايقة وإساءة. وتوضح الأبحاث الخارجية أن المستخدمين ينشرون مثل هذا المحتوى لأسباب عديدة إلى جانب الإساءة والتنمر، بما في ذلك الرغبة في بناء جمهور أو تحقيق الأرباح من الصفحات أو توجيه المستخدمين إلى مواقع أخرى، بما في ذلك المواقع الإباحية. وبالتالي، ستكون قواعد Meta بشأن هذه الصور أكثر وضوحًا إذا ركّزت على النشر دون موافقة وعلى الأضرار الناجمة عن انتشار مثل هذا المحتوى - بدلاً من التركيز على تأثير الهجمات المباشرة، وهو ما يتضح ضمنًا من خلال الإنفاذ بموجب سياسة المضايقة والإساءة. وستكون سياسة الاستغلال الجنسي للبالغين مكانًا أكثر منطقية لهذه القواعد. تحظر هذه السياسة بالفعل نشر الصور الحميمية غير التوافقية، وهي مشكلة مماثلة لأن كليهما مثالان على الإيذاء الجنسي القائم على الصور. ويمكن لشركة Meta بعد ذلك أيضًا النظر في تغيير اسم السياسة إلى "المحتوى الجنسي غير التوافقي".

يلاحظ المجلس أن الصورة التي تشبه شخصية عامة هندية لم تُضَف إلى بنك خدمة مطابقة الوسائط من قبل Meta إلى أن سأل المجلس عن السبب. وقد ردت Meta قائلة إنها اعتمدت على التقارير الإعلامية لإضافة الصورة التي تشبه الشخصية العامة الأمريكية إلى البنك، في حين لم تتضمن الحالة الأولى مثل هذه الإشارات الإعلامية. وهو أمر مثير للقلق لأن العديد من ضحايا الصور الحميمية المزيفة باستخدام الذكاء الاصطناعي لا يتواجدون في دائرة الضوء العام، ويضطرون إما إلى قبول انتشار صورهم دون موافقتهم أو البحث عن كل مثال والإبلاغ عنه. وتمثل التقارير الإعلامية عن تسريبات الصور الحميمية غير التوافقية إحدى الإشارات الحالية على عدم موافقة أصحاب الصور على نشرها بموجب سياسة الاستغلال الجنسي للبالغين. وقد تكون هذه الإشارات مفيدة عندما تتضمن المنشورات شخصيات عامة، ولكنها لا تفيد في حالة الأفراد العاديين. لذلك، لا ينبغي لشركة Meta الاعتماد بشكل مفرط على هذه الإشارة. ويقترح المجلس أيضًا اعتبار السياق الذي يشير إلى أن الجوانب العارية أو الجنسية للمحتوى تم إنشاؤها باستخدام الذكاء الاصطناعي أو برنامج فوتوشوب أو تم التلاعب بها بطريقة أخرى كإشارة على عدم الموافقة.

أخيرًا، يشعر المجلس بالقلق إزاء إغلاق الطعون تلقائيًا في حالات الإيذاء الجنسي القائم على الصور. حتى الانتظار لمدة 48 ساعة لإجراء مراجعة يمكن أن يكون ضارًا بالنظر إلى الضرر الذي قد ينتج عن ذلك. لا يمتلك المجلس حتى الآن معلومات كافية عن استخدام Meta للإغلاق التلقائي بشكل عام، ولكنه يعتبر ذلك مشكلة قد تؤثر بشكل كبير على حقوق الإنسان، مما يتطلب إجراء تقييم للمخاطر والتخفيف منها.

قرار مجلس الإشراف

في الحالة الأولى (الشخصية العامة الهندية)، يلغي المجلس القرار الأصلي لشركة Meta بالإبقاء على المنشور. وفي الحالة الثانية (الشخصية العامة الأمريكية)، يؤيد المجلس قرار Meta بإزالة المنشور.

يوصي المجلس Meta بما يلي:

  • نقل حظر "الصور الجنسية المُهينة التي تم إعدادها باستخدام برنامج فوتوشوب" إلى معيار المجتمع بشأن الاستغلال الجنسي للبالغين.
  • تغيير كلمة "مُهينة" في حظر "الصور الجنسية المُهينة التي تم إعدادها باستخدام برنامج فوتوشوب" إلى "غير توافقية".
  • استبدال كلمة "فوتوشوب" في حظر "الصور الجنسية المُهينة التي تم إعدادها باستخدام برنامج فوتوشوب" بمصطلح أعم للوسائط المتلاعب بها.
  • مواءمة سياساتها بشأن المحتوى غير التوافقي من خلال إضافة إشارة جديدة تدل على عدم الموافقة في سياسة الاستغلال الجنسي للبالغين: سياق إنشاء المحتوى أو التلاعب به باستخدام الذكاء الاصطناعي. وبالنسبة إلى المحتوى الذي يتضمن هذا السياق المحدد، يجب أن تحدد السياسة أيضًا أنه لا يلزم أن تكون الصورة "غير تجارية أو تم التقاطها في مكان" لتكون مخالفة.

*توفر ملخصات الحالة نظرة عامة على الحالات ولا تُشكّل سابقة قانونية.

القرار الكامل للمجلس بشأن الحالة

1. وصف الحالة ومعلومات أساسية عنها

أجرى مجلس الإشراف مراجعة لحالتين معًا جرى نشرهما بواسطة مستخدمين مختلفين واحدة على فيسبوك والأخرى على Instagram.

تتعلق الحالة الأولى بصورة تم التلاعب بها باستخدام الذكاء الاصطناعي لامرأة عارية تظهر من الخلف ويظهر وجهها في الصورة. وقد نُشرت الصورة على Instagram، وتشبه شخصية عامة من الهند وكانت جزءًا من مجموعة صور تحتوي على صورة مماثلة للمرأة مرتدية ملابس البحر، والتي كانت على الأرجح مصدر الصورة التي تم التلاعب بها باستخدام الذكاء الاصطناعي. ويصف الحساب الذي نشر هذا المحتوى نفسه بأنه يشارك فقط صورًا تم إنشاؤها باستخدام الذكاء الاصطناعي لنساء هنديات، ويتضمن الشرح التوضيحي علامات هاشتاج تشير إلى أن الصورة تم إنشاؤها باستخدام الذكاء الاصطناعي.

أبلغ أحد المستخدمين شركة Meta عن المحتوى لاحتوائه على صور إباحية. وقد تم إغلاق هذا البلاغ تلقائيًا نظرًا لعدم مراجعته خلال 48 ساعة. بعدها، قدم المستخدم طعنًا على قرار Meta بالإبقاء على المحتوى؛ لكن هذا الطعن تم إغلاقه تلقائيًا أيضًا؛ ومن ثمَّ، ظل المحتوى منشورًا على المنصة. وعندها، تقدَّم المستخدم بطعن إلى المجلس. ونتيجة لاختيار المجلس لهذه الحالة، قررت Meta أن قرارها بالإبقاء على المحتوى كان خاطئًا؛ ومن ثمَّ، أزالت المنشور لانتهاكه معيار المجتمع بشأن المضايقة والإساءة. وفي وقت لاحق، وبعد أن وقع اختيار المجلس على الحالة، قامت Meta بتعطيل الحساب الذي نشر المحتوى وأضافت المحتوى إلى بنك خدمة مطابقة الوسائط.

تتعلق الحالة الثانية بصورة نُشرت على إحدى مجموعات فيسبوك المخصصة للإبداعات التي تعتمد على الذكاء الاصطناعي. وتُظهِر صورة تم إنشاؤها باستخدام الذكاء الاصطناعي لامرأة عارية يتم التحرش بها ولمسها من الثدي. وقد تم إنشاء الصورة باستخدام الذكاء الاصطناعي بحيث تشبه شخصية عامة أمريكية ورد اسمها في الشرح التوضيحي.

في هذه الحالة الثانية، تمت إزالة الصورة لانتهاك سياسة Meta بشأن المضايقة والإساءة. وكان مستخدم مختلف قد نشر بالفعل صورة مماثلة، مما أدى إلى تصعيدها إلى خبراء السياسات أو الخبراء المتخصصون في هذا الشأن لدى شركة Meta والذين قرروا أن المحتوى ينتهك سياسة المضايقة والإساءة، وتحديدًا قاعدة "الصور أو الرسومات الجنسية المُهينة التي تم إعدادها باستخدام برنامج فوتوشوب"، ومن ثم قامت الشركة بإزالتها. ثم تمت إضافة تلك الصورة إلى بنك خدمة مطابقة الوسائط. وتعثر هذه البنوك تلقائيًا على الصور التي تم تحديدها بالفعل على أنها تنتهك المعايير وتقوم بإزالتها. تمت إزالة الصورة التي تم إنشاؤها باستخدام الذكاء الاصطناعي في الحالة الثانية تلقائيًا لأنها كانت قد أضيفت إلى بنك خدمة مطابقة الوسائط. وتقدم المستخدم الذي نشر المحتوى بطعن على إزالته، ولكن تم إغلاق البلاغ تلقائيًا. ليقوم بعدها بتقديم طعن إلى المجلس لاستعادة المحتوى الخاص به.

أخذ المجلس في حسبانه السياق التالي عند التوصل إلى قراره بشأن هاتين الحالتين.

الصور الحميمية التي تم تزييفها بالذكاء الاصطناعي هي وسائط اصطناعية تم التلاعب بها رقميًا لإظهار أشخاص حقيقيين بطريقة جنسية. قد يختلف ما يعتبر إباحيًا باختلاف البلدان والثقافات أوردت منظمة Witness، وهي منظمة غير حكومية دولية معنية بحقوق الإنسان، في تعليق عام قدمته إلى المجلس مثالاً لصورة تم تزييفها بالذكاء الاصطناعي من بنغلاديش تظهر بها شخصية سياسية نسائية ترتدي بكيني، وهي صورة قد تكون ضارة بشكل خاص بسبب السياق الثقافي، على الرغم من أنها قد لا تترك نفس الأثر في بيئة ثقافية أخرى (راجع التعليق العام رقم PC-27095).

أصبح إنشاء الصور الحميمية المزيفة باستخدام الذكاء الاصطناعي أكثر سهولة باستخدام أدوات الذكاء الاصطناعي، حيث يتطلب الأمر عددًا أقل من الصور لإنشاء صور واقعية. وتوضح منظمة نساء في الأمن الدولي ( WIIS) ذلك بالقول: "يعني هذا عمليًا أن أي شخص تقريبًا قام بالتقاط صورة سيلفي أو نشر صورة لنفسه عبر الإنترنت يواجه خطرًا افتراضيًا يتمثل في إنشاء صورة مزيفة له بالذكاء الاصطناعي." وأفادتصحيفة الجارديان أن شركة Deeptrace للذكاء الاصطناعي قامت بتحليل 15000 مقطع فيديو مزيف باستخدام الذكاء الاصطناعي وجدته على الإنترنت في سبتمبر 2019، مشيرة إلى أن 96‏% منها كانت إباحية وأن 99‏% من تلك المقاطع اشتملت على وضع وجوه شخصيات شهيرة نسائية على أجساد ممثلات أفلام إباحية. وذكرت التقارير وجود زيادة بنسبة 550‏% في عدد مقاطع الفيديو المزيفة باستخدام الذكاء الاصطناعي على الإنترنت منذ عام 2019، حيث تشكّل الصور الجنسية لأشخاص حقيقيين 98‏% من جميع مقاطع الفيديو المزيفة باستخدام الذكاء الاصطناعي على الإنترنت، وتشكل النساء 99‏% من الأفراد المستهدفين (تقرير Home Security Heroes لعام 2023). وتلقت أفضل 10 مواقع مخصصة للصور الحميمية المزيفة باستخدام الذكاء الاصطناعي مجتمعة أكثر من 34 مليون زيارة شهريًا.

لقد ثبت أن للإيذاء الجنسي القائم على الصور تأثير كبير على الضحايا. يستشهد تقرير المملكة المتحدة بشأن الكراهية والمضايقة والإيذاء للبالغين عبر الإنترنت لعام 2019 بمجموعة من الدراسات حول الإيذاء الجنسي القائم على الصور (بما في ذلك الصور الحميمية المزيفة باستخدام الذكاء الاصطناعي) التي بحثت في تجارب الضحايا. ووجدت هذه الدراسات أن الضحايا قد يكافحون مشاعر العار والعجز والإحراج ولوم الذات والغضب والشعور بالذنب والارتياب والعزلة والإذلال وقلة الحيلة؛ إلى جانب الشعور بفقدان النزاهة والكرامة والأمان وتقدير واحترام وقيمة الذات. ويقترح الباحثون في مجال الإيذاء الجنسي عبر الإنترنت أن أضرار الصور الجنسية المزيفة باستخدام الذكاء الاصطناعي قد تكون شديدة بنفس قدر الأضرار المرتبطة بنشر صور جنسية حقيقية غير توافقية.

تمثل الصور الحميمية المزيفة باستخدام الذكاء الاصطناعي مشكلة عالمية. وقد وردت تقارير عن استهداف السياسيات في بنجلاديش وباكستان وإيطاليا والولايات المتحدة وأيرلندا الشمالية وأوكرانيا. كما يتم استهداف الصحفيين والمدافعين عن حقوق الإنسان والمشاهير بشكل روتيني. ومع ذلك، يمكن لأي شخص أن يقع ضحية للصور الحميمية المزيفة باستخدام الذكاء الاصطناعي. وقد وقعت حوادث مؤخرًا في الولايات المتحدة وإسبانيا تم فيها استهداف الأطفال والمراهقين الصغار بالصور الحميمية المزيفة باستخدام الذكاء الاصطناعي. وأشار الخبراء الذين استشارهم المجلس إلى أن هذا المحتوى يمكن أن يكون ضارًا بشكل خاص في المجتمعات المحافظة اجتماعيًا. على سبيل المثال، أفادت التقارير أن امرأة تبلغ من العمر 18 عامًا قُتلت بالرصاص على يد والدها وعمها في منطقة كوهستان النائية في باكستان بعد انتشار صورة معدّلة رقميًا لها مع رجل.

وقد درست كل من الهند والولايات المتحدة قوانين وأعلنت عن خطط أخرى لوضع لوائح تنظم التعامل مع التزييف العميق باستخدام الذكاء الاصطناعي. ويوضح تعليق عام من راكيش ماهيشواري، وهو مسؤول حكومي كبير سابق في مجال قوانين الإنترنت، كيف يمكن تطبيق قوانين الهند الحالية بشأن وسائل التواصل الاجتماعي على المحتوى في الحالة الأولى (راجع التعليق العام رقم PC-27029). ومع ذلك، فقد تلقى المجلس العديد من التعليقات العامة التي تؤكد على أهمية أن تكون منصات التواصل الاجتماعي خط الدفاع الأول لأن الأنظمة القانونية قد لا تتحرك بسرعة كافية لمنع انتشار هذا المحتوى. ويوضح تعليق عام من منظمة Breakthrough Trust غير الحكومية الهندية أنه في الهند، "غالبًا ما تواجه النساء إيذاءً ثانويًا" عند الوصول إلى خدمات الشرطة أو المحاكم من خلال سؤالهن عن سبب وضعهن صورًا لأنفسهن على الإنترنت في المقام الأول - حتى عندما تكون الصور مزيفة بالذكاء الاصطناعي (راجع التعليق العام رقم PC-27044).

كانت Meta نشطة في تطوير تقنيات للتصدي لحالة ذات صلة، وهي مشاركة الصور الحميمية غير التوافقية (NCII). وأشاد الخبراء المستقلون الذين استشارهم المجلس بجهود Meta في العثور على الصور الحميمية غير التوافقية وإزالتها باعتبارها رائدة في هذا المجال، واصفين تقنيات مطابقة الصور الخاصة بها بأنها قيّمة. في حين أن الصور الحميمية غير التوافقية تختلف عن الصور الحميمية المزيفة باستخدام الذكاء الاصطناعي لاحتواء الأولى على صور حقيقية، واحتواء الثانية على صور تم إنشاؤها أو تعديلها رقميًا، يندرج النوعان تحت مظلة الإيذاء الجنسي القائم على الصور.

2. المعلومات المقدَّمة من المستخدمين

أفاد المستخدم الذي أبلغ عن المحتوى في الحالة الأولى أنه شاهد صورًا فاضحة تم إنشاؤها باستخدام الذكاء الاصطناعي لشخصيات مشهورة على Instagram وأعرب عن قلقه من وجودها على منصة يُسمح للمراهقين باستخدامها. ولم يقدم مُنشئ المحتوى بيانًا إلى المجلس بوصفه مستخدمًا.

ذكر المستخدم الذي شارك المنشور في الحالة الثانية في الطعن الذي قدمه إلى أن نيته لم تكن المضايقة أو الإساءة أو الحط من قدر أي شخص، وإنما الترفيه عن الأشخاص.

3. سياسات المحتوى والمعلومات المقدمة من Meta

1. سياسات المحتوى لدى شركة Meta

معيار المجتمع بشأن المضايقة والإساءة

ينص معيار المجتمع بشأن المضايقة والإساءة ضمن الفئة الأولى (الحماية الشاملة للجميع) على أنه يتمتع الجميع (بما في ذلك الشخصيات العامة) بالحماية من "الصور أو الرسومات الجنسية المُهينة التي تم إعدادها باستخدام برنامج فوتوشوب".

تُعرّف الإرشادات الداخلية الإضافية المقدمة لمشرفي المحتوى "الصور أو الرسومات الجنسية المُهينة التي تم إعدادها باستخدام برنامج فوتوشوب" على أنها عناصر محتوى تم التلاعب بها أو تحويرها لإضفاء طابع جنسي عليها بطرق من المرجّح أن تكون غير مرغوب بها من قبل الشخص المستهدف وبالتالي تعتبر مُهينة - على سبيل المثال، دمج رأس شخص حقيقي مع جسم عارٍ أو شبه عارٍ.

سياسة العُري والنشاط الجنسي للبالغين

تحظر هذه السياسة، من بين صور أخرى للعُري والنشاط الجنسي، "الصور المقربة العارية للمؤخرة بالكامل" وكذلك "عصر ثدي الأنثى". عصر ثدي الأنثى، والذي "يُعرّف بأنه حركة إمساك الثدي بأصابع منحنية تُظهر علامات وتغيرًا واضحًا في شكل الثدي. ونسمح بالضغط على الثدي في سياقات الرضاعة الطبيعية."

سياسة الاستغلال الجنسي للبالغين

تحظر هذه السياسة:

"مشاركة أو التهديد بمشاركة أو التصريح بالعزم على مشاركة أو عرض أو طلب صور حميمية دون موافقة أصحابها والتي يتوفر بها الشروط الثلاثة التالية:

  • أن تكون الصور غير تجارية أو تم التقاطها في مكان خاص.
  • أن يكون الشخص الظاهر في الصور عاريًا (أو شبه عارٍ) أو منخرطًا في نشاط جنسي أو متخذًا وضعية جنسية.
  • عدم الموافقة على مشاركة الصور وهو ما يتبين من خلال وجود أي من الإشارات التالية:
    • وجود سياق انتقامي (على سبيل المثال: الشرح التوضيحي أو التعليقات أو عنوان الصفحة).
    • مصادر مستقلة (على سبيل المثال، تسجيل تابع لجهات إنفاذ القانون) بما في ذلك وسائل الإعلام الترفيهية (على سبيل المثال، تأكيد تسريب الصور بواسطة وسائل الإعلام).
    • مطابقة واضحة بين الشخص الظاهر في الصورة والشخص الذي أبلغنا عن المحتوى.
    • يحمل الشخص الذي أبلغنا عن المحتوى نفس اسم الشخص الظاهر في الصورة."

2. المعلومات المقدَّمة من Meta

قامت Meta بتقييم كلا المنشورين بموجب سياستها بشأن المضايقة والإساءة وسياستها بشأن العُري والنشاط الجنسي للبالغين. ووجدت الشركة أن المنشورين انتهكا سياسة المضايقة والإساءة، بينما انتهك المنشور في الحالة الثانية (الشخصية العامة الأمريكية) معيار المجتمع بشأن العُري والنشاط الجنسي للبالغين أيضًا.

معيار المجتمع بشأن المضايقة والإساءة

تحمي سياسة المضايقة والإساءة الشخصيات العامة والخاصة من "الصور أو الرسومات الجنسية المُهينة التي تم إعدادها باستخدام برنامج فوتوشوب"، حيث أن هذا النوع من المحتوى "يحرم الأشخاص من حقهم في الشعور بالأمان والاحترام على فيسبوك وInstagram وThreads". وردًا على سؤال المجلس بشأن كيفية تعرف الشركة على المحتوى "الذي تم إعداده باستخدام برنامج فوتوشوب" أو الذي تم إنشاؤه باستخدام الذكاء الاصطناعي، أوضحت Meta أن التقييم يتم في "كل حالة على حدة" ويعتمد على عدة إشارات بما في ذلك "القرائن السياقية بالإضافة إلى الإشارات الواردة من مصادر موثوقة، مثل مقالات جهات تدقيق الحقائق التابعين لجهات خارجية، أو المصادر الإعلامية الموثوق بها، أو تقييمات الشركاء الموثوق بهم، أو المنظمات غير الحزبية الأخرى أو الشركاء الحكوميين".

قررت Meta أن الصورة في الحالة الأولى تنتهك هذه السياسة نظرًا لأنه تم إنشاؤها باستخدام الذكاء الاصطناعي لتشبه شخصية عامة من الهند وتم التلاعب بها أو تعديلها لجعل الشخصية تبدو شبه عارية في "وضع ذي إيحاء جنسي". كما أخذت الشركة في الاعتبار اسم المستخدم وعلامات الهاشتاج، وكلاهما يشير بوضوح إلى أن الصورة تم إنشاؤها باستخدام الذكاء الاصطناعي.

قررت Meta أن الصورة في الحالة الثانية تنتهك هذه السياسة أيضًا. ونظرت الشركة في العوامل التالية لتحديد ما إذا كانت هذه الصورة قد تم إنشاؤها باستخدام الذكاء الاصطناعي: يبدو الوجه قد تم دمجه مع جسم شبه عارٍ وأن عناصر مثل "اللون والتركيبة ودرجة الوضوح تشير إلى أن الفيديو [الصورة] تم إنشاؤها باستخدام الذكاء الاصطناعي"؛ وقد وردت تقارير خارجية من وسائل الإعلام حول انتشار مثل هذه الصور التي تم إنشاؤها باستخدام الذكاء الاصطناعي؛ وتم نشر المحتوى في مجموعة مخصصة لمشاركة الصور التي تم إنشاؤها باستخدام الذكاء الاصطناعي.

معيار المجتمع بشأن العُري والنشاط الجنسي للبالغين

أبلغت Meta المجلس بأنها قررت أن الصورة في الحالة الثانية (الشخصية العامة الأمريكية) تنتهك أيضًا معيار المجتمع بشأن العُري والنشاط الجنسي للبالغين. ولأن المحتوى في الحالة الثانية يُظهر شخصًا "يمسك" بصورة شخصية عامة أنثوية تم إنشاؤها باستخدام الذكاء الاصطناعي، فهي تشكّل انتهاكًا لحظر تصوير عصر الثدي الأنثوي.

ووفقًا للشركة، فإن الصورة في الحالة الأولى (الشخصية العامة الهندية) لا تنتهك السياسة لأنه على الرغم من حظر اللقطات المقربة للمؤخرة بالكامل، فإن هذه الصورة ليست لقطة مقربة وفقًا لتعريف الشركة.

أوضحت الشركة أيضًا أن قرار إزالة كلا المنشورين قد حقق التوازن الصحيح بين قيم الشركة المتمثلة في السلامة والخصوصية والكرامة وحرية الرأي لأن "شركة Meta قامت بتقييم القيمة الإبداعية التي يمثلها المحتوى في هذه الحالة على أنها ضئيلة". وعند النظر إلى علامات الهاشتاج والتعليقات على كلا المنشورين، خلُصت الشركة إلى أن "النية كانت جنسية وليست فنية". وخلُصت الشركة أيضًا إلى أن "القلق الأمني المتعلق بإزالة هذا المحتوى يفوق أي قيمة تعبيرية للخطاب". واستشهدت Meta بملاحظات أصحاب المصلحة من منتدى سابق للسياسات حول "الهجمات ضد الشخصيات العامة"، وأبرزت المخاوف بشأن الإيذاء والمضايقات التي تواجهها الشخصيات العامة على الإنترنت، وقالت إن ذلك يؤدي إلى الرقابة الذاتية وإسكات الأشخاص الذين يشهدون المضايقات.

في مايو 2024، قامت Meta بتحديث معيار مجتمعها بشأن العُري والنشاط الجنسي للبالغين، موضحة أن السياسة تنطبق على جميع "الصور الواقعية"، وأنه "عندما لا يكون من الواضح ما إذا كانت الصورة أو الفيديو حقيقيًا"، فإنها "تفترض أنه كذلك". ويفهم المجلس ذلك على أنه يعني أن الصور الواقعية التي تم إنشاؤها باستخدام الذكاء الاصطناعي لشخصيات حقيقية، سواء كانوا من المشاهير أو غير ذلك، ستتم إزالتها بموجب معيار المجتمع بشأن العُري والنشاط الجنسي للبالغين عندما تحتوي على عُري أو نشاط جنسي ولا تتأهل للاستفادة من مجموعة محدودة من الاستثناءات. وتستشهد الشركة بمنع "مشاركة محتوى دون الموافقة عليه أو مشاركة محتوى للقاصرين" كمبرر لإزالة الصور الجنسية الواقعية. ويرحب المجلس بتوضيح Meta لمعيار مجتمعها بشأن العُري والنشاط الجنسي للبالغين، ويدعم جهود الشركة لاتخاذ إجراءات إنفاذ ضد الصور ومقاطع الفيديو الواقعية بنفس الطريقة التي تتعامل بها مع الصور ومقاطع الفيديو الحقيقية.

ستظل النتائج لعنصري المحتوى في هذه الحالة كما هي بموجب السياسات المحدّثة: ستتم إزالتهما استنادًا إلى حظر الصور الجنسية المهينة التي تم إعدادها باستخدام برنامج فوتوشوب بموجب معيار المجتمع بشأن المضايقة والإساءة، وسيمثل المنشور الذي يتضمن الشخصية العامة الأمريكية انتهاكًا لمعيار المجتمع بشأن العُري والنشاط الجنسي للبالغين لعرضه عصر الثدي في سياق غير مسموح به.

في حين أن هذه التغييرات تمثل توضيحًا محمودًا، فهي لا تكفي للتعامل مع انتشار الصور الحميمية غير التوافقية التي تم إنشاؤها باستخدام الذكاء الاصطناعي. ويؤكد المجلس من جديد أهمية وجود خط سياسة مخصص لمكافحة المحتوى الجنسي غير التوافقي الذي تم إنشاؤه أو التلاعب به باستخدام الذكاء الاصطناعي والذي يندرج تحت معيار مجتمع Meta بشأن الاستغلال الجنسي للبالغين.

بنوك خدمة مطابقة الوسائط

وفقًا لشركة Meta، تقوم بنوك خدمة مطابقة الوسائط (MMS) لديها باكتشاف الوسائط المنشورة على منصتها واتخاذ إجراء بشأنها، كما حدث في الصور التي بين أيدينا في هذه الحالة. بمجرد اكتشاف المحتوى لإيداعه في البنك، يتم تحويله إلى سلسلة بيانات، أو "تجزئة." وبعد ذلك يتم ربط التجزئة ببنك معين. تم إنشاء بنوك خدمة مطابقة الوسائط الخاصة بشركة Meta لتتوافق مع سياسات معايير المجتمع المحددة، ولم تستند في تصميمها إلى سلوكيات أو أنواع معينة من المحتوى مثل المحتوى الجنسي المُهين الذي تم إعداده باستخدام برنامج فوتوشوب. يمكن لهذه البنوك تلقائيًا اكتشاف وإزالة الصور التي قرر مراجعون بشريون بالفعل أنها تنتهك قواعد الشركة.

تمت إزالة الصورة في الحالة الثانية (الشخصية العامة الأمريكية) لأن صورة مطابقة لها تم تصعيدها بالفعل إلى مراجعة بشرية وتمت إضافتها إلى بنك خدمة مطابقة الوسائط. ولم تتم إضافة الصورة في الحالة الأولى (الشخصية العامة الهندية) في البداية إلى بنك خدمة مطابقة الوسائط. وذكرت Meta أنه: "لا تتم إضافة جميع عناصر المحتوى التي يتبيّن أنها تنتهك حظر الصور الجنسية المُهينة التي تم إعدادها باستخدام برنامج فوتوشوب إلى بنك خدمة مطابقة الوسائط. ويجب الموافقة على طلبات إيداع المحتوى في بنوك خدمة مطابقة الوسائط بشكل عام، عند التصعيد، من قِبل فرقنا الداخلية. ويرجع ذلك إلى أن الإيداع في بنوك خدمة مطابقة الوسائط يمثل أداةً إنفاذ قوية قد تشكّل مخاطر على صعيد الإفراط في الإنفاذ". ولم تغير Meta قرارها بإيداع الصورة في الحالة الأولى إلا بعد أن طرح المجلس سؤالاً عن سبب عدم القيام بذلك.

طرح المجلس 13 سؤالاً حول بنوك خدمة مطابقة الوسائط، والإغلاق التلقائي للطعون، وحظر الصور الجنسية المُهينة التي تم إعدادها باستخدام برنامج فوتوشوب في سياسة المضايقة والإساءة، والسياسات الأخرى التي قد تكون ذات صلة بهذه الحالة. وقد ردت Meta على جميع الأسئلة المطروحة.

4. التعليقات العامة

تلقى مجلس الإشراف 88 تعليقًا عامًا استوفت شروط التقديم. ومن بين هذه التعليقات، ورد 14 تعليقًا من آسيا والمحيط الهادئ والأوقيانوس، و24 تعليقًا من وسط وجنوب آسيا، و15 تعليقًا من أوروبا، و5 تعليقات من أمريكا اللاتينية والكاريبي، و30 تعليقًا من الولايات المتحدة وكندا. للاطلاع على التعليقات العامة المقدمة التي وافق أصحابها على نشرها، انقر هنا.

تناولت التعليقات الموضوعات التالية: انتشار الصور المزيفة باستخدام الذكاء الاصطناعي والآثار المترتبة عليها من الناحية الثقافية في الهند، وتأثير الصور الحميمية المزيفة باستخدام الذكاء الاصطناعي على النساء بشكل عام والشخصيات العامة النسائية، وسبب كون الإغلاق التلقائي للطعون المتعلقة بالإيذاء الجنسي القائم على الصور يمثل مشكلة، وضرورة الجمع بين أنظمة المراجعة البشرية والتلقائية لكشف الصور الحميمية المزيفة باستخدام بالذكاء الاصطناعي وإزالتها.

5. تحليل مجلس الإشراف

قام المجلس بتحليل قرار Meta في هذه الحالة في ضوء سياسات المحتوى التي تتبعها الشركة، وقيمها، ومسؤولياتها تجاه حقوق الإنسان. كما أجرى المجلس تقييمًا للآثار التي تمثلها هذه الحالة فيما يتعلق بنهج Meta الأوسع في إدارة المحتوى.

5.1 الامتثال لسياسات المحتوى لدى Meta

1. قواعد المحتوى

من الواضح للمجلس أن الصورتين انتهكتا الحظر الذي تفرضه Meta على "الصور الجنسية التي يتم إعدادها باستخدام برنامج فوتوشوب" بموجب سياسة المضايقة والإساءة. وقد تم تعديل الصورتين لإظهار رأس أو وجه شخص حقيقي بجسم حقيقي أو خيالي عارٍ أو شبه عارٍ. واحتوت الحالتان أيضًا على قرائن سياقية تشير إلى أن المحتوى قد تم إنشاؤه باستخدام الذكاء الاصطناعي. وتضمن المنشور في الحالة الأولى (الشخصية العامة الهندية) قائمة من علامات الهاشتاج التي تشير إلى أنه قد تم إنشاؤه باستخدام الذكاء الاصطناعي وتم نشره بواسطة حساب مخصص لنشر هذا النوع من الصور. أما المنشور في الحالة الثانية (الشخصية العامة الأمريكية) فقد تم نشره في مجموعة على فيسبوك مخصصة للصور التي تم إنشاؤها باستخدام الذكاء الاصطناعي.

يتفق المجلس مع Meta على أن المنشور في الحالة الثانية فقط، هو الذي ينتهك سياسة العُري والنشاط الجنسي للبالغين، حيث يصور المرأة وهي تقوم بعصر ثدييها. ولا تنتهك الصورة الأخرى هذه السياسة بشكلها الحالي لأنها ليست لقطة مقربة لمؤخرة عارية وفق تعريف الشركة لهذا المصطلح. ويشير المجلس إلى أن هذا يعني أنه بموجب السياسة الحالية، لن تتم إزالة أي صور مماثلة لا تحتوي على قرائن سياقية واضحة تشير إلى أنها تم إنشاؤها باستخدام الذكاء الاصطناعي. وتتم مناقشة تأثير ذلك على الضحايا في القسم 5.2 أدناه.

5.2 الامتثال لمسؤوليات شركة Meta تجاه حقوق الإنسان

في كل من الحالة الأولى (الشخصية العامة الهندية) والحالة الثانية (الشخصية العامة الأمريكية)، يرى المجلس أن إزالة المحتوى من منصات Meta يتوافق مع مسؤوليات Meta تجاه حقوق الإنسان.

حرية التعبير (المادة 19 من العهد الدولي الخاص بالحقوق المدنية والسياسية)

تنص المادة 19 من العهد الدولي الخاص بالحقوق المدنية والسياسية على ضرورة توفير حماية واسعة النطاق لحرية التعبير، بما في ذلك التعبير الذي يعتبر "مسيئًا للغاية" (التعليق العام رقم 34، الفقرة 11، راجع أيضًا الفقرة 17 من تقرير 2019 لمقرر الأمم المتحدة الخاص المعني بحرية التعبير، A/74/486). عند فرض الدولة لقيود على حرية التعبير، يجب أن تفي تلك القيود بمتطلبات الشرعية والهدف المشروع والضرورة والتناسب (الفقرة 3، المادة 19، العهد الدولي الخاص بالحقوق المدنية والسياسية، التعليق العام رقم 34، الفقرة 34). وتتم الإشارة إلى هذه المتطلبات غالبًا باسم "الاختبار الثلاثي". يستخدم المجلس إطار العمل هذا لتفسير مسؤوليات Meta تجاه حقوق الإنسان تماشيًا مع مبادئ الأمم المتحدة التوجيهية بشأن الأعمال التجارية وحقوق الإنسان، والتي التزمت بها شركة Meta نفسها في سياسة حقوق الإنسان الخاصة بالشركة. يقوم المجلس بذلك فيما يتعلق بالقرارات الفردية بشأن المحتوى الخاضع للمراجعة، وما يخبرنا به ذلك عن نهج Meta الأوسع تجاه إدارة المحتوى. وكما ذكر مقرر الأمم المتحدة الخاص المعني بحرية التعبير على الرغم من أن "الشركات لا تتحمل التزامات الحكومات، لكن تأثيرها يتطلب منها تقييم نفس النوع من الأسئلة المتعلقة بحماية حقوق مستخدميها في حرية التعبير،"( A/74/486، الفقرة 41).

1. الشرعية (وضوح القواعد وسهولة الوصول إليها)

يتطلب مبدأ الشرعية أن تكون القواعد التي تقيِّد حرية التعبير واضحة ويسهُل الوصول إليها، وأن تصاغ بدقة كافية لتمكين الأشخاص من ضبط سلوكهم تبعًا لها (التعليق العام رقم 34، الفقرة 25). علاوة على ذلك، فإن هذه القواعد "لا يجوز أن تمنح الأشخاص المسؤولين عن تنفيذها سلطة تقديرية مطلقة في تقييد حرية التعبير" ويجب أن تنص على توجيهات كافية للمكلفين بتنفيذها لتمكينهم من التحقق على النحو المناسب من أنواع التعبير التي تخضع للتقييد وتلك التي لا تخضع لهذا التقييد،" (المرجع نفسه). ذكر مقرر الأمم المتحدة الخاص المعني بحرية التعبير أنه عند تطبيق ذلك على قيام الجهات الفاعلة الخاصة بحوكمة الخطاب على الإنترنت، يجب أن تكون القواعد واضحة ومحددة ( A/HRC/38/35، الفقرة 46). إذ ينبغي أن يتمكن الأشخاص الذين يستخدمون منصات Meta من الوصول إلى هذه القواعد وفهمها كما ينبغي أن تتوافر لمراجعي المحتوى توجيهات واضحة فيما يتعلق بإنفاذها.

ويرى المجلس أنه في حين كان ينبغي أن يتسم مصطلح "الصور الجنسية المُهينة التي تم إعدادها باستخدام برنامج فوتوشوب" بالوضوح الكافي في هذا السياق للمستخدمين الذين ينشرون عناصر المحتوى تلك، فإنه لم يكن واضحًا للمستخدمين بشكل عام. ردًا على سؤال المجلس بشأن معنى هذا المصطلح، قالت Meta إن مصطلح "الصور أو الرسومات الجنسية المُهينة التي تم إعدادها باستخدام برنامج فوتوشوب" يشير إلى الصور التي تم التلاعب بها لإضفاء طابع جنسي عليها بطرق من المرجّح أن تكون غير مرغوب بها من قبل الشخص المستهدف وبالتالي تعتبر مُهينة (على سبيل المثال، دمج رأس شخص حقيقي مع جسم عارٍ أو شبه عارٍ)." ويلاحظ المجلس أن استخدام مصطلح مثل "غير توافقي" سيكون وصفًا أوضح من "مُهين" للتعبير عن فكرة التعديلات الجنسية غير المرغوب بها للصور.

وعلاوة على ذلك، يرى المجلس أن مصطلح "فوتوشوب" الوارد في حظر "الصور الجنسية المُهينة التي تم إعدادها باستخدام برنامج فوتوشوب" قديم ومحدود جدا بحيث لا يغطي مجموعة تقنيات التلاعب بالوسائط المتاحة للمستخدمين، ولا سيّما تلك التي تعتمد على الذكاء الاصطناعي التوليدي. في حين أن مصطلح "فوتوشوب" لم يعد يعني بالضرورة استخدام برنامج تعديل معين، إلا أنه لا يزال يشير عادة إلى التعديل اليدوي للصور باستخدام الأدوات الرقمية. وعلى النقيض من ذلك، يتم إنشاء الكثير من الصور الجنسية غير التوافقية المنتشرة عبر الإنترنت حاليًا باستخدام نماذج الذكاء الاصطناعي التوليدي التي تقوم إما بتعديل الصور الموجودة تلقائيًا أو إنشاء صور جديدة تمامًا. يجب على Meta التأكد من أن الحظر الذي تفرضه على المحتوى الجنسي المُهين يغطي هذه المجموعة الأوسع من تقنيات التعديل، بطريقة واضحة لكل من المستخدمين ومشرفي المحتوى لدى الشركة.

ويرى المجلس أيضا أن خطوط السياسة التي تحظر هذه الصور ستكون أكثر ملاءمة في معيار المجتمع بشأن الاستغلال الجنسي للبالغين بدلاً من معيار المجتمع بشأن المضايقة والإساءة. ويجب أن تكون القواعد بديهية ليسهل على المستخدمين فهم الأمور المحظورة وسبب حظرها. ويحظى هذا الأمر بأهمية خاصة في الحالات التي يكون فيها المحتوى متوافقًا مع القواعد في حال تم إنشاء الصورة ومشاركتها بالتراضي، كما في الحالة الأولى (الشخصية العامة الهندية). إذا نظر المستخدم إلى الصور في كلتا الحالتين، فمن غير المرجّح أن يراها على أنها مشكلة مضايقة وإساءة.

ذَكر تعليق عام من مؤسسة RATI للتغيير الاجتماعي (وهي منظمة غير حكومية هندية تساعد ضحايا العنف الجنسي عبر الإنترنت وخارجه)، أنه على الرغم من أن إحدى طرق مساعدة المؤسسة للضحايا تتمثل في المساعدة في إزالة الصور الجنسية التي تم إنشاؤها باستخدام الذكاء الاصطناعي من منصات Meta، إلا أنها لم تسمع قط عن حظر "الصور الجنسية المُهينة التي تم إعدادها باستخدام الذكاء الاصطناعي" ولم يسبق لها الإبلاغ عن صورة فاضحة تم إنشاؤها أو تعديلها باستخدام الذكاء الاصطناعي لانتهاك سياسة المضايقة والإساءة. وبدلاً من ذلك، أبلغت عن مثل هذه الصور بموجب سياسات أخرى مثل العُري والنشاط الجنسي للبالغين واستغلال الأطفال والاستغلال الجنسي للبالغين (راجع التعليق العام رقم PC-27032).

يفترض تضمين هذا الحظر في معيار المجتمع بشأن المضايقة والإساءة أن المستخدمين ينشرون هذه الصور لمضايقة الأشخاص. ومع ذلك، قد لا يعكس هذا بدقة سبب نشر مستخدم معين لصورة فاضحة تم إنشاؤها باستخدام الذكاء الاصطناعي. يتسبب هذا الأمر في إصابة جميع المستخدمين بالحيرة، سواء الأشخاص الذين ينشرون هذا المحتوى أو الأشخاص الذين يبلغون عنه. وتشير الأبحاث الخارجية التي تم تنفيذها بتكليف من المجلس إلى أن المستخدمين ينشرون صورًا حميمية تم تزييفها بالذكاء الاصطناعي لعدد من الأسباب التي قد لا تنطوي على نية صريحة للمضايقة والإساءة. في حين أن الإساءة والتصيد هما اثنان من الدوافع، غالباً ما يكون المستخدمون مدفوعين أيضًا برغبة في بناء جمهور على المنصة، أو تحقيق الدخل من صفحاتهم، أو توجيه المستخدمين إلى مواقع خارج المنصة، مثل مواقع وخدمات المواد الإباحية، أو مواقع اصطياد النقرات. وجدت دراسة أجراها باول وآخرون عام 2020 أيضا أن مرتكبي الإيذاء الجنسي القائم على الصور غالبًا ما يذكرون دوافع مثل "المرح" أو "المغازلة" بالإضافة إلى "تداول الصور". ستكون خطوط السياسة التي تحظر هذه الصور أوضح إذا ركّزت على النشر دون موافقة وعلى الأضرار الناجمة عن انتشار مثل هذا المحتوى، بدلاً من التركيز على تأثير الهجمات المباشرة التي ينطوي عليها تصنيف "المضايقة والإساءة".

بناءً على ما سبق، ستكون سياسة الاستغلال الجنسي للبالغين مكانًا أكثر وضوحًا ومنطقية لتضمين هذه المحظورات. وتركز هذه السياسة على الصور التي تتم مشاركتها دون موافقة وتتضمن حظر مشاركة الصور الحميمية غير التوافقية، والتي من الواضح أنها حالة مماثلة جدًا. يجب على Meta أيضًا أن تفكر في إعادة تسمية هذه السياسة بشيء أكثر تفصيلاً ووضوحًا للمستخدمين، مثل "المحتوى الجنسي غير التوافقي".

2. الهدف المشروع

ينبغي أيضًا أن تستند أي قيود مفروضة على حرية التعبير إلى واحد أو أكثر من الأهداف المشروعة الواردة في العهد الدولي الخاص بالحقوق المدنية والسياسية، والتي من بينها حماية حقوق الآخرين.

فسرت لجنة حقوق الإنسان مصطلح "حقوق" على نحو يجعله يتضمن حقوق الإنسان المعترف بها في العهد الدولي الخاص بالحقوق المدنية والسياسية وبشكل أعم في القانون الدولي لحقوق الإنسان (التعليق العام رقم 34، في الفقرة 28).

يسعى قرار Meta بحظر الصور الحميمية المزيفة باستخدام الذكاء الاصطناعي على المنصة إلى حماية الحق في الصحة البدنية والنفسية، لأن هذا المحتوى ضار للغاية بالضحايا (المادة 12 من العهد الدولي الخاص بالحقوق الاقتصادية والاجتماعية والثقافية)؛ والحق في عدم التعرض للتمييز، حيث توجد أدلة دامغة على أن هذا المحتوى يؤثر بشكل غير متناسب على النساء والفتيات (المادة 2 من العهد الدولي الخاص بالحقوق المدنية والسياسية والعهد الدولي الخاص بالحقوق الاقتصادية والاجتماعية والثقافية)؛ والحق في الخصوصية، لأنه يؤثر على قدرة الأشخاص على الحفاظ على حياة خاصة والتحكم في كيفية إنشاء ونشر الصور الخاصة بهم (المادة 17 من العهد الدولي الخاص بالحقوق المدنية والسياسية).

يخلُص المجلس إلى أن القيود التي تفرضها المنصة على الصور الحميمية المزيفة باستخدام الذكاء الاصطناعي تهدف إلى حماية الأفراد من إنشاء ونشر صور جنسية دون موافقتهم - وما ينتج عن ذلك من أضرار على الضحايا وحقوقهم. ويمثل ذلك هدفًا مشروعًا لتقييد هذا النوع من المحتوى.

3. الضرورة والتناسب

بموجب المادة 19(3) من العهد الدولي الخاص بالحقوق المدنية والسياسية، فإن الضرورة والتناسب يتطلبان أن تكون القيود المفروضة على حرية التعبير "مناسبة لتحقيق وظيفة الحماية المنوطة بها، ويجب أن تكون أقل الوسائل تدخلاً مقارنة بغيرها من الوسائل التي يمكن أن تحقق النتيجة المنشودة؛ ويجب أن تكون متناسبة مع المصلحة التي ستحميها" (التعليق العام رقم 34، الفقرة 34).

خطورة الأضرار التي يمثلها هذا المحتوى:

يرى المجلس أن الحظر والإزالة هما إجراءان ضروريان ومتناسبان لحماية حقوق الأشخاص المتضررين من هذا المحتوى. فالأضرار الناجمة عن هذا المحتوى شديدة على الأشخاص الذين يظهرون فيه. كما أن حقوقهم في الخصوصية والحماية من الضرر النفسي والبدني تتقوض بسبب استخدام صورهم دون موافقتهم لإنشاء صور جنسية أخرى.

ونظرًا لخطورة هذه الأضرار، فإن إزالة المحتوى هي الوسيلة الفعالة الوحيدة لحماية الضحايا حيث لا تكفي أي تدابير أخرى أقل تدخلاً. وفي قرار حالة "فيديو مفبرك للرئيس بايدن"، أوصى المجلس بإضافة تسمية إلى المحتوى الذي تم التلاعب به كوسيلة لمنع تضليل المستخدمين بشأن صحة المحتوى. ومع ذلك، فإن إضافة التسميات لن يكون كافيًا لمعالجة الضرر هنا، حيث ينبع الضرر من مشاركة الصورة نفسها ومشاهدتها، وليس فقط من تضليل الأشخاص بشأن صحتها.

ونظراً لأن الغالبية العظمى من الأشخاص الذين يظهرون في هذه الصور هم من النساء أو الفتيات، فإن هذا النوع من المحتوى له أيضاً تأثيرات تمييزية ويسبب ضررًا شديدًا على أساس الجنس (راجع التعليق العام رقم PC-27045).

تطبيق بنوك خدمة مطابقة الوسائط على هذا المحتوى:

نظر المجلس أيضًا في استخدام Meta لبنوك خدمة مطابقة الوسائط. كانت الصورة في الحالة الثانية (الشخصية العامة الأمريكية) قد أضيفت بالفعل إلى بنك خدمة مطابقة الوسائط، في حين لم تضف الصورة في الحالة الأولى (الشخصية العامة الهندية) إلا بعد أن سأل المجلس شركة Meta عن سبب ذلك. وذكرت Meta في ردها أنها اعتمدت على تقارير إعلامية تشير إلى أن الصورة في الحالة الثانية كانت متداولة على وسائل التواصل الاجتماعي وأن "الإيداع في بنك خدمة مطابقة الوسائط كان ضروريًا لمعالجة المشكلة الأوسع المتمثلة في انتشار هذا المحتوى". وتابعت بالقول إن الحالة الأولى لم تكن تتضمن إشارات إعلامية.

يؤكد المجلس على احتمال وجود العديد من ضحايا النشر غير التوافقي للصور الحميمية المزيفة باستخدام الذكاء الاصطناعي ممن تتم مشاركة صورهم عدة مرات على المنصات. ومع ذلك، فإنهم لا يملكون ملفات شخصية عامة ويضطرون إما إلى قبول انتشار صورهم الحميمية دون موافقتهم أو البحث عنها والإبلاغ عن كل حالة على حدة، وهو ما سيكون مرهقًا للغاية وصادمًا. وحثت منظمة Witness، في تعليق عام، شركة Meta على "تجنب وضع عبء الإبلاغ على الضحايا، بما في ذلك الإبلاغ المتكرر عن نفس المحتوى" (راجع التعليق العام رقم PC-27095). ويكرر المجلس هذا القلق، خاصة بالنظر إلى التأثيرات على الضحايا في المناطق أو المجتمعات التي تعاني من محدودية الثقافة الإعلامية. وقد ذكرت Meta أن إحدى الإشارات التي تستعين بها للتأكد من عدم الموافقة بموجب سياسة الاستغلال الجنسي للبالغين تتمثل في التقارير الإعلامية التي تتناول وجود تسريبات لصور حميمية غير توافقية . وبينما يمكن أن تكون هذه المعلومات مفيدة فيما يتعلق بالمحتوى الذي يخص الشخصيات العامة، من المهم ألا تعتمد Meta بشكل مفرط على هذه الإشارة لأنها غير مفيدة في حالة المحتوى الذي يخص الأفراد العاديين، والذين لا يرجّح أن يكونوا موضوعًا للتقارير الإعلامية. ويجب على Meta أيضًا الاعتماد على الإشارات التي تساعد في تحديد التصوير غير التوافقي للأفراد العاديين.

وعند تحديد تناسب التدابير التي تطبقها Meta، ناقش المجلس أيضًا مسألة فرض عقوبات على المستخدمين - وعلى وجه التحديد، ما إذا كان يجب إعطاء "إنذار" لكل مستخدم يشارك هذه الصور (وليس فقط المستخدم الأول). وذكرت مؤسسة RATI للتغيير الاجتماعي في تعليق عام أنه، بناءً على تجربتها في مساعدة ضحايا الصور الحميمية المزيفة باستخدام الذكاء الاصطناعي، "يتم نشر العديد من مقاطع الفيديو هذه بالتعاون مع حساب آخر. ومع ذلك، عندما يتم اتخاذ إجراء بشأن المنشور، يتم فرض عقوبات على أحد الحسابين فقط. ويستمر الحساب الآخر، وهو حساب بديل للجاني، في النشر". وذكرت المؤسسة أيضًا أنها رأت عدة نسخ من نفس الفيديو، مما يشير إلى أن بنوك خدمة مطابقة الوسائط ستكون مفيدة في التعامل مع هذا المحتوى (راجع التعليق العام رقمPC-27032). وبالطبع، كما لاحظت مؤسسة Digital Rights Foundation (مؤسسة الحقوق الرقمية)، فإن بنوك خدمة مطابقة الوسائط "تتقيد بقاعدة بيانات الصور المعروفة" وستكون فائدتها محدودة دائمًا ضد الصور التي يتم إنشاؤها باستخدام الذكاء الاصطناعي حيث يمكن إنشاء صور جديدة بسهولة شديدة (راجع التعليق العام رقم PC-27072). وبالتالي، لا يمكن أن تكون بنوك خدمة مطابقة الوسائط إلا أداة واحدة في ترسانة Meta لمكافحة الصور الحميمية المزيفة باستخدام الذكاء الاصطناعي. وبينما قد تزيد فعّالية الإنفاذ عند تطبيق الإنذارات في جميع الحالات، فقد يؤدي أيضًا إلى فرض عقوبات على المستخدمين في حالات لا يكون فرض العقوبات فيها مبررًا، مثل مشاركة الصور دون معرفة أنه قد تم إنشاؤها باستخدام الذكاء الاصطناعي أو أنها غير توافقية بطريقة أخرى. ويقر المجلس بهذه الحالة من الشد والجذب. وقد شاركت Meta مع المجلس أنه لم يتم تكوين إعدادات بنك خدمة مطابقة الوسائط في هذه الحالة ليقوم بتطبيق إنذارات تجنبًا لمخاطر الإفراط في الإنفاذ. ومع ذلك، فقد تغير هذا الأمر، في بعض الظروف، وأصبح بإمكان المستخدمين الآن الطعن على هذه القرارات. ونظرًا لهذا التغير في الظروف، يحث المجلس Meta على إعادة النظر فيما إذا كان تطبيق الإنذارات مبررًا.

التمييز الاصطناعي بين مشاركة الصور الحميمية غير التوافقية والصور الحميمية المزيفة باستخدام الذكاء الاصطناعي:

أخيرًا، نظر المجلس في ما إذا كان ينبغي التعامل مع مشاركة الصور الحميمية غير التوافقية والصور الحميمية المزيفة باستخدام الذكاء الاصطناعي بشكل منفصل ضمن سياسات Meta. عندما سُئلت Meta عن إمكانية نقل حظر الصور الجنسية المُهينة التي تم إعدادها باستخدام برنامج فوتوشوب (والذي، سيكون من الأفضل وصفه بمصطلح أكثر دقة، كما نوقش في قسم الشرعية أعلاه) إلى سياسة الاستغلال الجنسي للبالغين، أخبرت Meta المجلس بأن فئتي المحتوى هاتين مختلفتان للغاية لأن القواعد المتعلقة باتخاذ إجراءات إنفاذ ضد مشاركة الصور الحميمية دون موافقة أصحابها تتطلب إشارة إلى عدم وجود موافقة (مثل بيان انتقامي أو تقارير إعلامية عن تسريب الصور)، في حين أن القواعد المتعلقة بالصور الجنسية المُهينة التي تم إعدادها باستخدام برنامج فوتوشوب لا تتطلب ذلك. ومع هذا، يمثل ذلك خيار إنفاذ يمكن معالجته، من الناحية النظرية، من خلال النظر في السياق الذي يشير إلى أن الجوانب العارية أو الجنسية للمحتوى تم إنشاؤها باستخدام الذكاء الاصطناعي أو برنامج فوتوشوب أو تم التلاعب بها بطريقة أخرى كإشارة لعدم الموافقة، وتحديد أن مثل هذا المحتوى لا يلزم أن يكون "غير تجاري أو تم التقاطه في مكان خاص" ليشكل انتهاكًا السياسة.

يوجد بالفعل تداخل كبير بين السياسات التي قد لا تكون واضحة للمستخدمين. ذكرت Meta في ردها على أسئلة المجلس أنه، في وقت اتخاذ إجراءات الإنفاذ تجاه المحتوى في هذه الحالات، كان تعريفها للصور الحميمية بالنسبة إلى سياسة الاستغلال الجنسي للبالغين معرفًا داخليًا على أنها (1) لقطات شاشة لمحادثات جنسية خاصة و(2) صور لشخص أو أكثر في مكان خاص، بما في ذلك الصور المعدّلة التي تحتوي على عُري أو شبه عُري أو أشخاص منخرطين في نشاط جنسي.

إن افتراض أن الصور الجنسية التي يتم إنشاؤها باستخدام الذكاء الاصطناعي غير توافقية قد يؤدي في بعض الأحيان إلى إزالة صورة تم إنشاؤها بالتراضي. يشعر المجلس بقلق عميق بشأن الإفراط في اتخاذ إجراءات إنفاذ ضد العُري الكامل والعُري الجزئي المسموح به، كما يتضح من قرارات الصادرة في حالة أعراض سرطان الثدي والعُري وحالات الهوية الجنسية والعُري، والقرارات الموجزة بشأن حالات الفحص الذاتي للثدي والرسوم البيانية المعلوماتية لفحص الخصيتين ذاتيًا. ومع ذلك، في حالة الصور الجنسية المزيفة باستخدام الذكاء الاصطناعي، كان هذا الافتراض بالفعل هو الأساس الذي اعتمدت عليه Meta في اتخاذ إجراءات إنفاذ تجاه الصور الجنسية المُهينة التي تم إعدادها باستخدام برنامج فوتوشوب، حيث تفترض الشركة أن جميع أشكال إضفاء الطابع الجنسي التي تغطيها هذه السياسة والتي تمت باستخدام الذكاء الاصطناعي أو برنامج فوتوشوب غير مرغوب بها. ومما لا شك فيه أنه قد لا يتم اكتشاف جميع عناصر التي تم إنشاؤها باستخدام الذكاء الاصطناعي بواسطة خط السياسة الجديد هذا (كما هو الحال الآن)، ولكن من خلال الجمع بين فئتي المحتوى غير التوافقي، يمكن لشركة Meta الاستفادة من نجاحاتها في مكافحة مشاركة الصور الحميمية غير التوافقية واستخدام جوانب من النهج الذي تتبعه لتقييم الموافقة في الحد من انتشار الصور الحميمية المزيفة باستخدام الذكاء الاصطناعي على منصاتها.

وقد بحث المجلس أيضًا ما إذا كان ينبغي على شركة Meta، لتوفير حماية أفضل لأولئك الذين تتأثر حقوقهم بهذا النوع من المحتوى، أن تغير نهجها تجاه حظر مشاركة الصور الحميمية غير التوافقية والصور الجنسية المُهينة التي تم إعدادها باستخدام برنامج فوتوشوب لتبدأ بافتراض أن مثل هذه الصور غير توافقية، بدلاً من النهج الحالي المتمثل في افتراض أن الصور توافقية وتتطلب إزالتها وجود إشارات تدل على عدم الموافقة. ومع ذلك، بعد تقييم جدوى وأثر هذا النهج المقترح، خلُص المجلس إلى أن مثل هذا النهج يخاطر بالإفراط في اتخاذ إجراءات إنفاذ ضد المحتوى غير المخالف ولن يكون قابلاً للتطبيق حاليًا من الناحية التشغيلية في ظل اعتماد Meta على الأدوات التلقائية في اتخاذ إجراءات الإنفاذ.

الوصول إلى سبل الانتصاف

أعرب المجلس عن قلقه إزاء الطعون التي أُغلقت تلقائيًا في الحالة الأولى. فقد تم تلقائيًا إغلاق البلاغ الأصلي والطعن الذي تم تقديمه على قرار Meta بإبقاء المحتوى على المنصة. وأبلغت Meta المجلس بأن "المحتوى الذي يتم الإبلاغ عنه لأي نوع من أنواع الانتهاكات (باستثناء مواد الاعتداء الجنسي على الأطفال) مؤهل للإغلاق التلقائي إذا لم تكتشف تقنيتنا وجود احتمالية عالية لحدوث انتهاك ولم تتم مراجعته في غضون 48 ساعة."

قد لا يكون المستخدمون على علم بعملية الإغلاق التلقائي وباحتمال ألا تتم أبدًا مراجعة المحتوى الذي تم تقديم طعن بشأنه. وفي الوقت نفسه، كما هو الحال في الحالة الأولى، قد يُبلغ الضحايا وغيرهم ممن يسعون إلى إزالة الصور الحميمية المزيفة باستخدام الذكاء الاصطناعي عن المحتوى دون أن يحظوا بأي مراجعة فعلية. وعندما يطعنون على ذلك القرار، قد يجدون أنفسهم يعيدون الكَرة مرة أخرى، ويتعرضون مجددًا لنفس الإغلاق التلقائي.

وقد انتقدت العديد من التعليقات العامة في هذه الحالة استخدام الإغلاق التلقائي للطعون في حالة الإيذاء الجنسي القائم على الصور. وتتسب هذه الصور في ضرر شديد لدرجة أنه حتى انتظار 48 ساعة للمراجعة يمكن أن يكون ضارًا. وضرب مشروع American Sunlight Project مثالًا على الصور الحميمية المزيفة باستخدام الذكاء الاصطناعي التي تستهدف الشخصيات السياسية النسائية خلال الانتخابات، قائلاً: "يمكن لمثل هذا المحتوى أن يحظى بمئات الآلاف من المشاهدات، وتتناوله تقارير الصحافة الوطنية، ويضعف الصورة العامة للمرشحة السياسية، مما يضعها في موقف غير متكافئ عند مقارنتها بخصومها. وفي بعض البلدان، بما في ذلك الهند، حيث وقعت هذه الحالة، يمكن أن يعرض حياتها للخطر" (راجع التعليق العام رقم PC-27058). وقد أشار مركز Centre for Protecting Women Online (مركز حماية النساء على الإنترنت) إلى نقطة ذات صلة حين حذر من أن الضرر الذي تسببه هذه الصور في الانتخابات سيكون شديدًا بشكل خاص "في السياقات التي تنخفض فيها المعرفة الرقمية لدى عامة السكان وحيث يكون من المرجّح أن تؤثر الرسائل والصور المنشورة على وسائل التواصل الاجتماعي بشكل كبير على الناخبين باعتبارها المصدر الوحيد تقريبًا للأخبار والمعلومات" ( التعليق العام رقم PC-27088). وبالطبع، بغض النظر عن الوضع العام أو الخاص للضحايا، فإن التأخر في إزالة هذه الصور يقوض خصوصيتهم بشكل خطير وقد يكون كارثيًا. وقد نظر المجلس فيما إذا كان يجب استثناء المحتوى الذي يسبب مثل هذه الأضرار الشديدة لضحاياه (من خلال مشاركة الصور الحميمية المزيفة باستخدام الذكاء الاصطناعي أو الصور الحميمية غير التوافقية) من عملية الإغلاق التلقائي. ويقر المجلس بالتحديات التي تواجه الإشراف على المحتوى على نطاق واسع، والحاجة إلى الاعتماد على العمليات التلقائية لإدارة المحتوى المحدد للمراجعة، ولكنه يشعر بالقلق إزاء خطورة الضرر الذي قد ينتج عن استخدام العمليات التلقائية في بعض جوانب السياسة المشابهة لتلك المنظورة في هذا القرار. ولا يمتلك المجلس معلومات كافية عن استخدام الإغلاق التلقائي على مستوى جميع سياسات Meta لإصدار توصية بشأن استخدام الإغلاق التلقائي ضمن أنظمة الإنفاذ الأوسع لدى شركة Meta، ولكنه يعتبرها مشكلة قد يكون لها آثار كبيرة على حقوق الإنسان تتطلب تقييمًا دقيقًا للمخاطر ومن ثم التخفيف من حدتها.

6. قرار مجلس الإشراف

يلغي مجلس الإشراف قرار Meta الأصلي بترك المحتوى في الحالة الأولى (الشخصية العامة الهندية)، مما يتطلب إزالة المنشور، ويؤيد قرار Meta بإزالة المحتوى في الحالة الثانية (الشخصية العامة الأمريكية).

7. التوصيات

سياسة المحتوى

1. لزيادة اليقين لدى المستخدمين ودمج سياساتها بشأن المحتوى غير التوافقي، يجب على Meta نقل حظر "الصور الجنسية المُهينة التي تم إعدادها باستخدام برنامج فوتوشوب" إلى معيار المجتمع بشأن الاستغلال الجنسي للبالغين.

وسيعتبر المجلس أن هذه التوصية قد دخلت حيز التنفيذ عند إزالة هذا القسم من سياسة المضايقة والإساءة وتضمينه في الصيغة المتاحة لعامة الجمهور من سياسة الاستغلال الجنسي للبالغين.

2. لزيادة اليقين لدى المستخدمين، ينبغي على Meta تغيير كلمة "مُهينة" في حظر "الصور الجنسية المُهينة التي تم إعدادها باستخدام برنامج فوتوشوب" إلى "غير توافقية".

وسيعتبر المجلس أن هذه التوصية قد دخلت حيز التنفيذ عندما تحل كلمة "غير توافقية" محل "مُهينة" في حظر المحتوى الجنسي المُهين في الصيغة المتاحة لعامة الجمهور من معايير المجتمع.

3. لزيادة اليقين لدى المستخدمين وضمان أن تعالج سياساتها مجموعة واسعة من تقنيات تعديل المحتوى وإنشائه، يجب على شركة Meta استبدال كلمة "فوتوشوب" في حظر "الصور الجنسية المُهينة التي تم إعداداها باستخدام برنامج فوتوشوب" بمصطلح أكثر عمومية للمحتوى الذي تم التلاعب به.

وسيعتبر المجلس أن هذه التوصية قد دخلت حيز التنفيذ عند إزالة كلمة "فوتوشوب" من حظر المحتوى "الجنسي المُهين الذي تم إعداده باستخدام برنامج فوتوشوب" واستبدالها بمصطلح أكثر عمومية مثل "الوسائط التي تم التلاعب بها".

4. لمواءمة سياساتها بشأن المحتوى غير التوافقي والمساعدة على ضمان إزالة المحتوى المخالف، يجب على Meta إضافة إشارة جديدة تدل على عدم الموافقة في سياسة الاستغلال الجنسي للبالغين: سياق إنشاء المحتوى أو التلاعب به باستخدام الذكاء الاصطناعي. وبالنسبة إلى المحتوى الذي يتضمن هذا السياق المحدد، يجب أن تحدد السياسة أيضًا أنه لا يلزم أن تكون الصورة "غير تجارية أو تم التقاطها في مكان" لتكون مخالفة.

وسيعتبر المجلس أن هذه التوصية قد دخلت حيز التنفيذ عند تحديث السياسة المعلنة لعامة الجمهور والإرشادات الداخلية لتعكس هذا التغيير.

ملاحظة إجرائية:

يتم اتخاذ قرارات مجلس الإشراف من قبل لجان مكونة من خمسة أعضاء ويتم الموافقة عليها بأغلبية أصوات المجلس بالكامل. ولا يلزم بالضرورة أن تُعبّر قرارات المجلس عن وجهات النظر لجميع الأعضاء.

بموجب اتفاقيته، يجوز لمجلس الإشراف مراجعة الطعون المقدمة من المستخدمين الذين قامت Meta بإزالة محتواهم، والطعون المقدمة من المستخدمين الذين أبلغوا عن محتوى قامت Meta بتركه، والقرارات التي أحالتها Meta إليه (المادة 2، القسم 1 من الاتفاقية). وللمجلس سلطة مُلزمة تخوله من تأييد أو إلغاء القرارات التي تتخذها Meta بشأن المحتوى (المادة 3، القسم 5؛ والمادة 4 من الاتفاقية). يجوز للمجلس إصدار توصيات غير ملزمة يجب على شركة Meta الرد عليها (المادة 3، القسم 4؛ والمادة 4 من الميثاق). وعندما تلتزم Meta بتنفيذ التوصيات، يراقب المجلس هذا التنفيذ.

بالنسبة إلى القرار المتخذ بشأن هذه الحالة، تم إجراء بحث مستقل نيابةً عن المجلس. وقد تلقى المجلس مساعدة من شركة Duco Advisors، وهي شركة تركز على نقطة التقاء الجغرافيا السياسية والثقة والأمان والتكنولوجيا. وقد تم تقديم أبحاث أيضًا بواسطة مجموعة Memetica، وهي مجموعة متخصصة في التحقيقات الرقمية تقدم خدمات استشارية بشأن المخاطر وخدمات استخباراتية بشأن التهديدات للتخفيف من حدة الأضرار على الإنترنت.

العودة إلى قرارات الحالة والآراء الاستشارية المتعلقة بالسياسة