تأييد مجلس الإشراف قرار Meta بشأن حالة الفيديو المفبرك للرئيس بايدن
تم النشر بتاريخ 5 شُباط 2024
أيد مجلس الإشراف قرار Meta بترك مقطع فيديو تم تعديله ليبدو كما لو أن الرئيس الأمريكي جو بايدن يلمس صدر حفيدته البالغة بشكل غير لائق، والذي كان مصحوبًا بتعليق يصفه بأنه "مائل جنسيًا للأطفال". لا ينتهك منشور فيسبوك سياسة الوسائط المتلاعب بها في Meta، والتي تنطبق فقط على الفيديو الذي تم إنشاؤه من خلال الذكاء الاصطناعي (AI) وفقط على المحتوى الذي يظهر الأشخاص وهم يقولون أشياءً لم يقولوها. ونظرًا لأن الفيديو الموجود في هذا المنشور لم يتم تعديله باستخدام الذكاء الاصطناعي ويُظهر الرئيس بايدن يفعل شيئًا لم يفعله (وليس شيئًا لم يقله)، فإنه لا ينتهك السياسة الحالية. بالإضافة إلى ذلك، فإن التغيير في مقطع الفيديو هذا واضح، وبالتالي من غير المرجح أن يضلل "المستخدم العادي" بشأن مصداقيته، والتي، وفقًا لـ Meta، هي سمة أساسية للوسائط المتلاعب بها. ومع ذلك، فإن المجلس يشعر بالقلق إزاء سياسة الوسائط المتلاعب بها في شكلها الحالي، ويجدها غير متسقة وتفتقر إلى مبرر مقنع وتركز بشكل غير مناسب على كيفية إنشاء المحتوى، بدلاً من التركيز على الأضرار المحددة التي تهدف إلى منعها (على سبيل المثال، للعمليات الانتخابية). وينبغي على Meta أن تعيد النظر في هذه السياسة سريعًا، نظرا لعدد الانتخابات المقررة في عام 2024.
عن الحالة
في مايو 2023، نشر أحد مستخدمي فيسبوك مقطع فيديو مدته سبع ثوانٍ، استنادًا إلى لقطات فعلية للرئيس بايدن، تم التقاطها في أكتوبر 2022، عندما ذهب للتصويت شخصيًا خلال انتخابات التجديد النصفي الأمريكية. وفي اللقطات الأصلية، تبادل ملصقات "لقد قمت بالتصويت" مع حفيدته البالغة، وهي ناخبة لأول مرة، ووضع الملصق فوق صدرها، وفقًا لتعليماتها، ثم قبّلها على خدها. وفي مقطع الفيديو، الذي تم نشره بعد ما يزيد قليلاً عن ستة أشهر، تم تعديل اللقطات بحيث تتكرر، ويتم تكرار اللحظة التي لامست فيها يد الرئيس صدر حفيدته ليبدو وكأنه يلمسها بشكل غير لائق. وتشتمل الموسيقى التصويرية للفيديو المفبرك على كلمات "Girls rub on your titties" (يا فتيات ألمسن صدوركن) من أغنية "Simon Says" للمغني فارواه مونش، في حين ينص الشرح التوضيحي للمنشور على أن الرئيس بايدن "مائل جنسيًا للأطفال" ويصف الأشخاص الذين صوتوا له بأنهم "يعانون من مشاكل عقلية." وانتشرت منشورات أخرى تحتوي على نفس مقطع الفيديو المفبرك، ولكنها لا تتضمن نفس الموسيقى التصويرية أو الشرح التوضيحي، على نطاق واسع في يناير 2023.
أبلغ مستخدم آخر عن المنشور إلى Meta باعتباره خطابًا يحض على الكراهية، ولكن تم إغلاق هذا البلاغ تلقائيًا من قِبل الشركة دون أي مراجعة. ثم استأنف هذا القرار أمام Meta، مما أدى إلى اتخاذ أحد المراجعين البشريين لقرار بأن المحتوى لم يكن انتهاكًا وترك المنشور متاحًا. وأخيرًا، تقدم المستخدم بطعن إلى المجلس.
النتائج الرئيسية
يتفق المجلس مع Meta على أن المحتوى لا ينتهك سياسة الوسائط المتلاعب بها الخاصة بالشركة لأن المقطع لا يُظهر الرئيس بايدن وهو يقول كلامًا لم يقله، ولم يتم فبركته من خلال الذكاء الاصطناعي. تحظر السياسة الحالية فقط مقاطع الفيديو المعدلة التي تُظهر أشخاصًا يقولون كلمات لم يقولوها (لا يوجد حظر يتضمن قيام الأفراد بشيء لم يفعلوه) وتنطبق فقط على مقاطع الفيديو التي تم إنشاؤها من خلال الذكاء الاصطناعي. وفقًا لـ Meta، فإن السمة الرئيسية "للوسائط المتلاعب بها" هي أنها يمكن أن تضلل المستخدم "العادي" لتجعله يعتقد أنها حقيقية وغير مفبركة. في هذه الحالة، يعد تكرار مشهد واحد في الفيديو فبركة واضحة.
ومع ذلك، يرى مجلس الإدارة أن سياسة الوسائط المتلاعب بها في Meta تفتقر إلى مبررات مقنعة، وغير متسقة ومربكة للمستخدمين، وتفشل في تحديد الأضرار التي تسعى إلى منعها بوضوح. باختصار، ينبغي إعادة النظر في هذه السياسة.
إن تطبيق السياسة على محتوى الفيديو فقط، والمحتوى الذي تمت فبركته أو إنشاؤه بواسطة الذكاء الاصطناعي، والمحتوى الذي يجعل الأشخاص يبدون وكأنهم يقولون كلمات لم يقولوها، هو تطبيق محدود للغاية. ويجب على Meta توسيع نطاق السياسة لتشمل الصوت بالإضافة إلى المحتوى الذي يُظهر الأشخاص وهم يفعلون أشياءً لم يفعلوها. كما أن المجلس غير مقتنع بمنطق جعل هذه القواعد تعتمد على التدابير الفنية المستخدمة لإنشاء المحتوى. واتفق الخبراء الذين استشارهم المجلس، وتعليقات العامة، بشكل عام على حقيقة أن المحتوى غير المفبرك بواسطة الذكاء الاصطناعي هو السائد وليس بالضرورة أقل تضليلاً؛ على سبيل المثال، تحتوي معظم الهواتف على ميزات لتعديل المحتوى. ولذلك، لا ينبغي للسياسة أن تتعامل مع "التزييف العميق" بشكل مختلف عن المحتوى الذي تم تغييره بطرق أخرى (على سبيل المثال، "التزييف السطحي").
يقر المجلس بأن Meta قد تتخذ التدابير اللازمة والمتناسبة لمنع الأضرار على أرض الواقع التي تسببها الوسائط المتلاعب بها، بما في ذلك حماية الحق في التصويت والمشاركة في إدارة الشؤون العامة. ومع ذلك، فإن السياسة الحالية لا تحدد بوضوح الأضرار التي تسعى إلى منعها. وتحتاج Meta إلى توفير قدر أكبر من الوضوح حول ماهية هذه الأضرار وتحتاج إلى إجراء مراجعات بسرعة، بالنظر إلى العدد القياسي للانتخابات في عام 2024.
وفي الوقت الحاضر، تثير هذه السياسة أيضًا مخاوف تتعلق بالقانون. حاليًا، تنشر Meta هذه السياسة في مكانين: كسياسة مستقلة وكجزء من معيار مجتمع المعلومات المضللة. هناك اختلافات بين الاثنين في المبادئ والصياغة التشغيلية الدقيقة. ويجب توضيح هذه الأمور وتصحيح أي أخطاء.
في الوقت نفسه، يعتقد المجلس أنه في معظم الحالات، يمكن لـ Meta منع الضرر الذي يلحق بالمستخدمين بسبب التضليل بشأن مصداقية المحتوى الصوتي أو الصوتي المرئي من خلال وسائل أقل تقييدًا من إزالة المحتوى. على سبيل المثال، يمكن للشركة إرفاق تسميات بالمحتوى المضلل لإعلام المستخدمين بأنه قد تم تغييره بشكل كبير، مما يوفر سياقًا حول مصداقيته. وتستخدم Meta بالفعل التسميات كجزء من برنامج تدقيق الحقائق بواسطة جهات خارجية، ولكن إذا تم تقديم مثل هذا الإجراء لفرض هذه السياسة، فيجب تنفيذه دون الاعتماد على جهات خارجية لتدقيق الحقائق وعبر المنصة.
قرار مجلس الإشراف
أيد مجلس الإشراف القرار الذي اتخذته شركة Meta بالإبقاء على المنشور.
ويوصى المجلس Meta بما يلي:
- إعادة النظر في نطاق سياسة الوسائط المتلاعب بها لتشمل المحتوى الصوتي والصوتي المرئي، والمحتوى الذي يُظهر أشخاصًا يفعلون أشياءً لم يفعلوها (بالإضافة إلى قول أشياء لم يقولوها) والمحتوى بغض النظر عن كيفية إنشائه أو تغييره.
- التحديد الواضح في سياسة واحدة موحدة بشأن الوسائط المتلاعب بها، للأضرار التي تهدف إلى منعها - بما يتجاوز تضليل المستخدمين - مثل منع التدخل في الحق في التصويت والمشاركة في إدارة الشؤون العامة.
- التوقف عن إزالة الوسائط المتلاعب بها في حالة عدم وجود انتهاك آخر للسياسة، والقيام بدلاً من ذلك بتطبيق تسمية تشير إلى أن المحتوى قد تم تغييره بشكل كبير ويمكن أن يكون مضللاً. يجب إرفاق هذه التسمية بالوسائط (على سبيل المثال، أسفل الفيديو) بدلاً من المنشور بأكمله، ويجب تطبيق ذلك على جميع المثيلات المتطابقة لتلك الوسائط على منصات Meta.
لمزيد من المعلومات
للاطلاع على القرار الكامل بشأن الحالة، انقر هنا.
للاطلاع على ملخص تعليقات العامة بشأن هذه الحالة، يرجى النقر انقر هنا.