تنمية تأثيرنا من خلال توصيات السياسة

وفي إطار قرارات الحالة والآراء الاستشارية بشأن السياسة، نصدر توصيات حول كيفية تحسين Meta لسياسات المحتوى وأنظمة الإنفاذ والشفافية الشاملة لمليارات من مستخدمي Facebook وInstagram وThreads. إن التغييرات التي أجرتها Meta ردًا على ذلك تجعلها أكثر شفافية وتساعدها في معاملة المستخدمين بشكل أكثر إنصافًا. وقد أدت توصياتنا إلى إنشاء سياسات وإجراءات إنفاذ جديدة، فضلاً عن تسهيل فهم السياسات الحالية. يعكس العديد من مقترحاتنا أو يعتمد على الدعوات التي أطلقتها مجموعات المجتمع المدني والجهات المعنية الأخرى لسنوات عديدة - ما يجبر شركة Meta على النظر في هذه الدعوات القديمة والاستجابة لها علنًا.

لقد قدمنا ​​حتى الآن أكثر من 250 توصية إلى شركة Meta. ويجب على الشركة الرد عليها علنًا في غضون 60 يومًا وإبلاغنا بآخر المستجدات بشأن تنفيذها. وحتى يومنا هذا، عملت شركة Meta، بالنسبة لحوالي 65% من التوصيات، إما على تنفيذها بشكل كامل أو جزئي أو الإبلاغ عن التقدم المحرز في تنفيذها.

كما أن هذا الاعتماد لتوصياتنا - بدءًا من رسائل المستخدم الأكثر وضوحًا إلى بروتوكولات السياسة الجديدة - له تأثير حقيقي ومتزايد على طريقة التعامل مع الأشخاص والمجتمعات عبر الإنترنت.

Watch Our Video On The Board's Impact

‎‎إخبار الأشخاص عن سبب إزالة محتواهم

نحن نؤمن بأن منح الأشخاص مزيدًا من المعلومات حول كيفية وسبب إزالة محتواهم سيؤدي إلى بناء الثقة والارتقاء بمستوى الإنصاف. إذ لم يكن بإمكان المستخدمين في السابق فهم القاعدة التي انتهكوها بشكل تام. واستجابةً لتوصيتنا، قدمت شركة Meta رسائل جديدة على مستوى العالم، لإعلام الأشخاص بالسياسة المحددة التي انتهكوها ضمن قواعدها المتعلقة بالخطاب الذي يحض على الكراهية، والأفراد الخطرين والمنظمات الخطرة، والتنمر والإساءة. كما لاحظت شركة Meta أيضًا أن منح المستخدمين مزيدًا من المعلومات حول أي انتهاك لخطاب يحض على الكراهية وأدي إلى إزالة محتواهم أسفر عن زيادة ذات دلالة إحصائية في كيفية إدراك المستخدمين لشفافية الشركة وشرعيتها.

تحديد سياق سرطان الثدي

حتى لا يتم وضع علامة بالخطأ على المنشورات التي تزيد الوعي بأعراض سرطان الثدي لمراجعتها، قدمنا توصية تحث شركة Meta على تحسين الكشف الآلي للصور مع تراكب النص. استجابت الشركة من خلال تعزيز تقنيات تحديد Instagram لمحتوى سرطان الثدي. وبالإضافة إلى تحسين الكشف المستند إلى تراكب النص، أطلقت Meta أيضًا مصنِّفًا للمحتوى الصحي لتحديد المحتوى المستند إلى الصور حول سرطان الثدي بشكل أفضل. وما بين هذين المصنِّفين، تم إرسال آلاف من المنشورات، التي كان من الممكن إزالتها تلقائيًا في السابق، للمراجعة البشرية. في عام 2023 على سبيل المثال، وخلال فترتين مدة كل منهما 30 يومًا، أُرسلت 3,500 قطعة من المحتوى للمراجعة البشرية بدلاً من إزالتها تلقائيًا. تساعد هذه التغييرات في الحفاظ على المحتوى الذي يشاركه مرضى سرطان الثدي والناشطون.

تمكين المحتجين الإيرانيين

لحماية الخطاب السياسي في إيران بشكل أفضل، أوصينا بأن تسمح شركة Meta بمشاركة العبارة “Marg bar Khamenei” ("الموت لخامنئي [المرشد الأعلى لإيران]") في سياق الاحتجاجات التي بدأت في عام 2022 - والتراجع عن إزالة هذا النوع من المحتوى. وبمقارنة المنشورات (لنفس الفترة الزمنية عبر الصفحات والمجموعات والحسابات العامة نفسها على Instagram) قبل وبعد تنفيذ Meta للتوصية، رأينا أن تلك التي تحتوي على عبارة "الموت لخامنئي" زادت بنسبة 30% تقريبًا.

جعل نظام العقوبات في شركة Meta أكثر إنصافًا ووضوحًا

إلى جانب العديد من منظمات المجتمع المدني، عملنا بانتظام على إثارة المخاوف بشأن نظام العقوبات في Meta، لإبراز قضية وضع المستخدمين في "سجن فيسبوك".

مجالات أخرى لتأثير المجلس

  • ترجمة معايير مجتمع فيسبوك إلى أكثر من 20 لغة إضافية، يتحدث بها مئات الملايين من الأشخاص.
  • الانتهاء من النشر العالمي للرسائل الجديدة التي تخبر الأشخاص ما إذا كانت المراجعة البشرية أو الآلية قد أدت إلى إزالة المحتوى الخاص بهم.
  • إخبار المستخدمين عند حظر الوصول إلى محتواهم بناءً على طلب حكومي.
  • إنشاء معيار مجتمعي جديد متعلق بالمعلومات المضللة.
  • تقديم بروتوكول سياسة الأزمات.
  • إعداد فريق جديد لتنسيق الاستجابة في حالة الأزمات لتوفير إشراف متخصص على العمليات خلال الأزمات الوشيكة والناشئة.