قرار جديد يتناول قواعد شركة Meta بشأن الصور الحميمية باستخدام التزييف العميق دون موافقة
تم النشر بتاريخ 25 تَمُّوز 2024
في حالتين من صور الذكاء الاصطناعي الفاضحة التي تشبه شخصيات عامة نسائية من الهند والولايات المتحدة، وجد مجلس الإشراف أنه كان ينبغي إزالة كلا المنشورين من منصات Meta. تؤثر الصور الحميمية باستخدام التزييف العميق على النساء والفتيات على نحوٍ متفاوت - الأمر الذي يقوض حقوقهن في الخصوصية والحماية من الضرر النفسي والجسدي. تعتبر القيود المفروضة على هذا المحتوى مشروعة لحماية الأفراد من إنشاء الصور الجنسية ونشرها من دون موافقتهم. ونظرًا لخطورة الأضرار، فإن إزالة المحتوى هي الطريقة الوحيدة الفعالة لحماية الأشخاص المتضررين. إن تصنيف المحتوى الذي تم التلاعب به ليس مناسبًا في هذه الحالة لأن الأضرار تنبع من مشاركة هذه الصور ومشاهدتها - وليس فقط من تضليل الناس حول صحتها. تسعى توصيات المجلس إلى جعل قواعد Meta بشأن هذا النوع من المحتوى أكثر بديهية وتسهيل إبلاغ المستخدمين عن الصور الجنسية من دون موافقة.
عن الحالتين
تتضمن هاتان الحالتان صورتين لامرأتين عاريتين تم إنشاؤهما بواسطة الذكاء الاصطناعي، إحداهما تشبه شخصية عامة هندية، والأخرى شخصية عامة أمريكية. في الحالة الأولى، نشر حساب على إنستجرام، لم يشارك سوى صور تم إنشاؤها أو التلاعب بها بواسطة الذكاء الاصطناعي لنساء هنديات، صورة لظهر امرأة عارية ووجهها ظاهر، كجزء من مجموعة من الصور. وتضمنت هذه المجموعة أيضًا صورة مماثلة لامرأة بملابس البحر، وهي على الأرجح المادة المصدر للتلاعب الفاضح بالذكاء الاصطناعي. أما الحالة الثانية فتتضمن أيضًا صورة فاضحة تم إنشاؤها بالذكاء الاصطناعي تشبه شخصية عامة نسائية، وهذه المرة من الولايات المتحدة. في هذه الصورة، المنشورة على مجموعة الفيسبوك الخاصة بإبداعات الذكاء الاصطناعي، تظهر امرأة عارية يتم التحرش بها. تم ذكر اسم الشخصية الشهيرة التي تشبهها في التعليق.
في الحالة الأولى (شخصية عامة هندية)، قام أحد المستخدمين بإبلاغ Meta عن المحتوى بسبب المواد الإباحية ولكن نظرًا لعدم مراجعة البلاغ خلال 48 ساعة، تم إغلاقه تلقائيًا. ثم قدّم المستخدم بعد ذلك طعنًا إلى Meta، ولكن تم إغلاقه تلقائيًا أيضًا. وأخيرًا، قدّم المستخدم طعنًا إلى المجلس. ونتيجة لاختيار المجلس لهذه القضية، قررت شركة Meta أن قرارها الأصلي بترك المحتوى على إنستجرام كان خاطئًا وأزالت الشركة المنشور لانتهاكه معيار المجتمع بشأن التنمر والإساءة. وفي وقت لاحق، بعد أن بدأ المجلس مداولاته، عطلت Meta الحساب الذي نشر المحتوى وأضافت الصورة الفاضحة إلى بنك خدمة مطابقة الوسائط (MMS).
وفي الحالة الثانية (شخصية عامة أمريكية)، تمت إضافة الصورة الفاضحة بالفعل إلى بنك خدمة مطابقة الوسائط (MMS) لانتهاكها سياسة التنمر والإساءة الخاصة بـ Meta، وبالتالي تمت إزالتها تلقائيًا. تعمل هذه البنوك تلقائيًا على العثور على الصور التي تم تحديدها بالفعل من قبل المراجعين البشريين على أنها تنتهك قواعد Meta وإزالتها. قدّم المستخدم الذي نشر الصورة التي تم إنشاؤها بالذكاء الاصطناعي طعنًا ولكن تم إغلاقه تلقائيًا. ثم قدّم المستخدم طعنًا إلى المجلس لاستعادة منشوره.
تتألف الصور الحميمية، التي تم إنشاؤها بتقنية التزييف العميق، من وسائط اصطناعية تم التلاعب بها رقميًا لتصوير أشخاص حقيقيين بطريقة جنسية. وقد أصبح من الأسهل إنشاؤها، مع الحاجة إلى عدد أقل من الصور اللازمة لإنشاء صورة واقعية. ويشير أحد التقارير إلى زيادة بنسبة 550% في مقاطع الفيديو التي تم إنشاؤها بتقنية التزييف العميق على الإنترنت منذ عام 2019، وغالبيتها العظمى عبارة عن تصوير جنسي لأفراد حقيقيين وتستهدف النساء.
النتائج الرئيسية
وجد المجلس أن كلتا الصورتين انتهكتا قاعدة Meta التي تحظر "الفوتوشوب الجنسي المهين" بموجب سياسة التنمر والإساءة. ومن الواضح أن الصور قد تم تعديلها لإظهار وجوه شخصيات عامة حقيقية بجسد عارٍ مختلف (حقيقي أو خيالي)، في حين أن القرائن السياقية، بما في ذلك الهاشتاجات ومكان نشر المحتوى، تشير أيضًا إلى أنها من إنتاج الذكاء الاصطناعي. وفي الحالة الثانية (شخصية عامة أمريكية)، هناك انتهاك آخر لسياسة عري البالغين والنشاط الجنسي، حيث تظهِر الصورة الفاضحة المرأة وهي تعصر ثديها. وتتوافق إزالة المنشورين مع مسؤوليات شركة Meta تجاه حقوق الإنسان.
يعتقد المجلس أن الأشخاص الذين يستخدمون منصات Meta يجب أن يكونوا قادرين على فهم القواعد. وفي حين أن مصطلح "الفوتوشوب الجنسي المهين" كان يجب أن يكون واضحًا بما فيه الكفاية للمستخدمين اللذين قاما بالنشر في هاتين الحالتين، إلا أنه ليس واضحًا بما فيه الكفاية بشكل عام للمستخدمين. وعندما سأل المجلس شركة Meta عن المعنى، قالت الشركة إن المصطلح يشير إلى "الصور التي تم التلاعب بها جنسيًا بطرق من المحتمل أن تكون غير مرغوب فيها من قبل الهدف، وبالتالي يُنظر إليها على أنها مهينة". ويلاحظ المجلس أن مصطلحًا مختلفًا مثل "من دون موافقة" سيكون وصفًا أوضح لشرح فكرة التلاعب الجنسي غير المرغوب فيه للصور. وبالإضافة إلى ذلك، يرى المجلس أن كلمة "فوتوشوب" أضيق من أن تغطي مجموعة تقنيات التلاعب بالوسائط المتاحة اليوم، وخاصة الذكاء الاصطناعي التوليدي. يجب أن تحدد Meta في هذه القاعدة أن الحظر المفروض على هذا المحتوى يغطي هذا النطاق الأوسع من تقنيات التعديل.
ولضمان أن تكون القواعد التي تحظر الصور الجنسية من دون موافقة أكثر بديهية، يرى المجلس أنها يجب أن تكون جزءًا من معيار المجتمع الخاص بالاستغلال الجنسي للبالغين، بدلاً من التنمر والإساءة. وفي كلتا الحالتين، كان من غير المحتمل أن يعتبرها المستخدمون مشكلة تنمر وإساءة. تُظهر الأبحاث الخارجية أن المستخدمين ينشرون مثل هذا المحتوى لأسباب عديدة إلى جانب الإساءة والتصيّد، بما في ذلك الرغبة في تكوين جمهور، أو تحقيق الدخل من الصفحات أو توجيه المستخدمين إلى مواقع أخرى، بما في ذلك المواقع الإباحية. لذلك، فإن قواعد Meta بشأن هذه الصور ستكون أكثر وضوحًا إذا كان التركيز على عدم الموافقة والأضرار الناجمة عن انتشار مثل هذا المحتوى - بدلاً من تأثير الاعتداءات المباشرة، وهو ما يعنيه ضمنيًا التطبيق بموجب سياسة التنمر والإساءة. ستكون سياسة الاستغلال الجنسي للبالغين المكان الأكثر منطقية لهذه القواعد. تحظر هذه السياسة بالفعل الصور الحميمية من دون موافقة، وهي مشكلة مماثلة لأن كليهما مثالان على الإساءة الجنسية القائمة على الصور. بعد ذلك، يمكن أن تفكر Meta أيضًا في إعادة تسمية السياسة لتصبح "المحتوى الجنسي من دون موافقة".
يلاحظ المجلس أن الصورة التي تشبه شخصية عامة هندية لم تتم إضافتها إلى بنك MMS من قبل Meta حتى سأل المجلس عن السبب. ردت Meta بالقول إنها اعتمدت على تقارير إعلامية لإضافة الصورة التي تشبه الشخصية العامة الأمريكية إلى البنك، ولكن لم تكن هناك مثل هذه الإشارات الإعلامية في الحالة الأولى. وهذا أمر مثير للقلق لأن العديد من ضحايا الصور الحميمية بتقنية التزييف العميق ليسوا تحت أنظار العامة، ويضطرون إما لقبول انتشار صورهم من دون الموافقة عليها أو البحث عن كل حالة والإبلاغ عنها. إحدى الإشارات القائمة على عدم الموافقة بموجب سياسة الاستغلال الجنسي للبالغين هي التقارير الإعلامية عن تسريب صور حميمية من دون موافقة. ويمكن أن يكون هذا مفيداً عندما تتعلق المنشورات بشخصيات عامة، ولكنه غير مفيد للأفراد العاديين. لذلك، يجب ألا تعتمد Meta بشكل مفرط على هذه الإشارة. يقترح المجلس أيضًا أن يعتبر السياق الذي يشير إلى أن الجوانب العارية أو الجنسية للمحتوى هي من إنتاج الذكاء الاصطناعي أو المعدل بالفوتوشوب أو تم التلاعب بها بطريقة أخرى كإشارة إلى عدم الموافقة.
وأخيرًا، يشعر المجلس بالقلق إزاء الإغلاق التلقائي للطعون المتعلقة بالإساءة الجنسية القائمة على الصور. وحتى الانتظار لمدة 48 ساعة للمراجعة قد يكون ضارًا نظرًا للضرر الذي قد يقع. وليس لدى المجلس حتى الآن معلومات كافية عن استخدام Meta للإغلاق التلقائي بشكل عام، ولكنه يعتبر أن هذه مسألة يمكن أن يكون لها تأثير كبير على حقوق الإنسان، الأمر الذي يتطلب تقييم المخاطر والتخفيف من حدتها.
قرار مجلس الإشراف
في الحالة الأولى (شخصية عامة هندية)، يلغي المجلس قرار Meta الأصلي بترك المنشور. في الحالة الثانية (شخصية عامة أمريكية)، يؤيد المجلس قرار Meta بحذف المنشور.
يوصي المجلس بأن تقوم شركة Meta بما يلي:
- نقل حظر "الفوتوشوب الجنسي المهين" إلى معيار المجتمع الخاص بالاستغلال الجنسي للبالغين.
- تغيير كلمة "المهين" في حظر "الفوتوشوب الجنسي المهين" إلى "من دون موافقة".
- استبدال كلمة "الفوتوشوب" في حظر "الفوتوشوب الجنسي المهين" بمصطلح أكثر عمومية للوسائط المتلاعب بها.
- مواءمة سياساتها بشأن المحتوى من دون موافقة من خلال إضافة إشارة جديدة على عدم الموافقة في سياسة الاستغلال الجنسي للبالغين: سياق ذلك المحتوى الذي تم إنشاؤه أو التلاعب به بواسطة الذكاء الاصطناعي. بالنسبة للمحتوى بهذا السياق المحدد، يجب أن تحدد السياسة أيضًا أنه ليس من الضروري أن يكون المحتوى "غير تجاري أو تم إنتاجه في بيئة خاصة" ليكون مخالفًا.
لمزيد من المعلومات
To read a synopsis of public comments for this case, please click here.