सही ठहराया
भारत में यौन उत्पीड़न का वीडियो
बोर्ड ने Instagram पर एक ऐसी पोस्ट रीस्टोर करने के Meta के फ़ैसले को कायम रखा जिसमें पुरुषों के एक ग्रुप द्वारा एक महिला पर यौन हमला करने का वीडियो था.
बोर्ड ने Instagram पर एक ऐसी पोस्ट रीस्टोर करने के Meta के फ़ैसले को कायम रखा जिसमें पुरुषों के एक ग्रुप द्वारा एक महिला पर यौन हमला करने का वीडियो था. बोर्ड ने पाया है कि Meta की “ख़बरों में रहने लायक होने के कारण दी जाने वाली छूट” इस तरह के केसों का बड़े पैमाने पर समाधान करने के लिए अपर्याप्त है और कंपनी को अपनी वयस्क यौन शोषण पॉलिसी का अपवाद प्रस्तुत करना चाहिए.
केस की जानकारी
मार्च 2022 में, खुद को दलितों का हिमायती प्लेटफ़ॉर्म बताने वाले एक Instagram अकाउंट ने भारत में हुई एक घटना का वीडियो पोस्ट किया, जिसमें पुरुषों का एक ग्रुप किसी महिला की पिटाई कर रहा है. “दलित” लोगों को पहले “अछूत” कहा जाता था और जाति व्यवस्था में उनपर अत्याचार हुए हैं. वीडियो में महिला का चेहरा दिखाई नहीं दे रहा है और उसमें कोई नग्नता भी नहीं है. वीडियो के साथ में दिए गए टेक्स्ट में कहा गया था कि “आदिवासी महिला” पर पुरुषों के एक ग्रुप ने सार्वजनिक रूप से यौन हमला किया और यह वीडियो वायरल हुआ था. भारत के मूल निवासियों को “आदिवासी” कहा जाता है.
एक यूज़र द्वारा पोस्ट की रिपोर्ट किए जाने के बाद, Meta ने वयस्क यौन शोषण पॉलिसी का उल्लंघन करने के कारण उसे हटा दिया. यह पॉलिसी ऐसे कंटेंट को प्रतिबंधित करती है जिसमें “यौन हिंसा, यौन हमला या यौन शोषण दिखाया जाता है, उनकी धमकी दी जाती है या उन्हें बढ़ावा दिया जाता है.”
Meta के कर्मचारी ने Instagram से जानकारी मिलने के बाद आंतरिक रिपोर्टिंग चैनल के ज़रिए कंटेंट का हटाया जाना फ़्लैग किया. Meta की आंतरिक टीम ने फिर कंटेंट का रिव्यू किया और उसे “ख़बरों में रहने लायक होने के कारण छूट” दी. इससे अन्यथा उल्लंघन करने वाले ऐसे कंटेंट को Meta के प्लेटफ़ॉर्म पर बने रहने की छूट मिलती है जो ख़बरों में रहने लायक और जनहित में है. Meta ने कंटेंट को रीस्टोर कर दिया, उसपर चेतावनी स्क्रीन लगा दी जो 18 वर्ष से कम उम्र के लोगों को उसे देखने से रोकती है और बाद में इस केस को बोर्ड को रेफ़र कर दिया.
मुख्य निष्कर्ष
बोर्ड ने पाया कि चेतावनी स्क्रीन के साथ इस कंटेंट को प्लेटफ़ॉर्म पर रीस्टोर करना, Meta की वैल्यू और मानवाधिकार से जुड़ी ज़िम्मेदारियों के अनुसार है.
बोर्ड यह मानता है कि बिना सहमति का यौन स्पर्श दर्शाने वाला कंटेंट दिखाने से व्यक्तिगत पीड़ितों और अन्य लोगों को नुकसान का गंभीर खतरा हो सकता है क्योंकि, उदाहरण के लिए, इससे अपराधियों को प्रोत्साहन मिलता है और हिंसा की स्वीकार्यता में वृद्धि होती है.
भारत में दलित और आदिवासी लोगों से, ख़ास तौर पर महिलाओं से, अत्यंत भेदभावपूर्ण व्यवहार किया जाता है और उनके खिलाफ़ अपराध बढ़ते जा रहे हैं. ऐसी हिंसा और भेदभाव को डॉक्यूमेंट करने का सोशल मीडिया एक महत्वपूर्ण साधन है और इस केस का कंटेंट जागरूकता बढ़ाने के लिए पोस्ट किया गया लगता है. इसलिए पोस्ट की जनहित वैल्यू महत्वपूर्ण है और उसे अंतरराष्ट्रीय मानवाधिकार मानकों के तहत ज़्यादा सुरक्षा प्राप्त है.
यह देखते हुए कि वीडियो में आपत्तिजनक कंटेंट या नग्नता नहीं है और बोर्ड के अधिकांश मेंबर्स ने यह पाया कि वीडियो में पीड़ित को पहचाना नहीं जा सकता, अधिकांश मेंबर्स का मानना है कि चेतावनी स्क्रीन के साथ वीडियो को प्लेटफ़ॉर्म पर बने रहने देने से नुकसान का कोई खतरा नहीं है. अगर पीड़ित को पहचाना नहीं जा सकता है, तो नुकसान का खतरा काफी हद तक कम हो जाता है. चेतावनी स्क्रीन, जो 18 वर्ष से कम उम्र के लोगों को वीडियो देखने से रोकती है, पीड़ित की गरिमा की रक्षा करने में मदद करती है और बच्चों और यौन उत्पीड़न के पीड़ितों को परेशान करने या चोट पहुँचाने वाले कंटेंट के संपर्क में आने से बचाती है.
बोर्ड इस बात से सहमत है कि कंटेंट, Meta की वयस्क यौन शोषण पॉलिसी का उल्लंघन करता है और यह कि इसे ख़बरों में रहने लायक होने के कारण छूट दी जा सकती है. हालाँकि, बोर्ड के “सूडान का आपत्तिजनक वीडियो” केस में व्यक्ति की गई चिंताओं की ही तरह, बोर्ड ने पाया कि इस तरह के केस से निपटने में ख़बरों में रहने लायक होने के कारण छूट देना बड़े पैमाने पर पर्याप्त नहीं है.
बहुत कम मामलों में ख़बरों में रहने लायक होने के कारण छूट दी जाती है. 1 जून 2022 को समाप्त होने वाले वर्ष में, Meta ने इसे वैश्विक रूप से सिर्फ़ 68 बार उपयोग किया. यह आँकड़ा बोर्ड की सुझाव के बाद सार्वजनिक किया गया था. उनमें से एक छोटा सा भाग ही वयस्क यौन शोषण कम्युनिटी स्टैंडर्ड के संबंध में जारी किया गया था. ख़बरों में रहने लायक होने के कारण छूट सिर्फ़ Meta की आंतरिक टीमों द्वारा दी जा सकती है. हालाँकि, यह केस बताता है कि उन टीमों को प्रासंगिक कंटेंट एस्केलेट करने की प्रोसेस विश्वसनीय नहीं है. Meta के कर्मचारी ने Instagram से जानकारी मिलने के बाद आंतरिक रिपोर्टिंग चैनल के ज़रिए कंटेंट का हटाया जाना फ़्लैग किया.
ख़बरों में रहने लायक होने के कारण दी जाने वाली छूट अस्पष्ट है, वह छूट देने वाले व्यक्ति के विवेक पर अत्यधिक निर्भर है और बड़े पैमाने पर इसका एक जैसा उपयोग सुनिश्चित नहीं किया जा सकता. न ही इसमें यह आकलन करने की स्पष्ट शर्तें शामिल हैं कि वयस्क यौन शोषण पॉलिसी का उल्लंघन करने वाले कंटेंट से किस नुकसान की संभावना है. बोर्ड ने पाया कि Meta की मानवाधिकार ज़िम्मेदारियों के लिए यह ज़रूरी है कि वह स्पष्ट स्टैंडर्ड और इस केस जैसे केसों के लिए ज़्यादा प्रभावी एन्फ़ोर्समेंट प्रोसेस उपलब्ध कराए. पॉलिसी में एक अपवाद की ज़रूरत है जिसे बड़े पैमाने पर लागू किया जा सके और जिसे वयस्क यौन शोषण पॉलिसी के अनुसार बनाया गया हो. इसमें जागरूकता फैलाने वाली पोस्ट को हिंसा या भेदभाव करने वाली पोस्ट से अलग करने का स्पष्ट मार्गदर्शन होना चाहिए और इससे Meta को बड़े पैमाने पर प्रतिस्पर्धी अधिकारों में संतुलन बनाने में मदद मिलनी चाहिए.
ओवरसाइट बोर्ड का फ़ैसला
ओवरसाइट बोर्ड ने चेतावनी स्क्रीन के साथ पोस्ट को रीस्टोर करने का Meta का फ़ैसला कायम रखा.
बोर्ड ने Meta को सुझाव भी दिया कि वह:
- वयस्क यौन शोषण कम्युनिटी स्टैंडर्ड में बिना सहमति के यौन स्पर्श के लिए एक अपवाद शामिल करे. इसका उपयोग सिर्फ़ Meta की आंतरिक टीमों द्वारा ही किया जा सकेगा और ऐसे कंटेंट को परमिशन देगा जिसमें पीड़ित को पहचाना नहीं जा सकता और जहाँ Meta यह माने कि कंटेंट को जागरूकता फैलाने के लिए शेयर किया गया है, सनसनी फैलाने के लिए शेयर नहीं किया गया है और उसमें नग्नता नहीं है.
- बड़े पैमाने पर रिव्यू करने वाले रिव्यूअर्स के लिए अपने आंतरिक मार्गदर्शन को अपडेट करके यह शामिल करे कि वयस्क यौन शोषण कम्युनिटी स्टैंडर्ड के तहत रिव्यू किए गए ऐसे कंटेंट को कब एस्केलेट करना है जो पॉलिसी में ऊपर बताई गई छूट के योग्य हो सकता है.
*केस के सारांश से केस का ओवरव्यू पता चलता है और आगे के किसी फ़ैसले के लिए इसको आधार नहीं बनाया जा सकता है.
केस का पूरा फ़ैसला
1.फ़ैसले का सारांश
बोर्ड के अधिकांश मेंबर्स ने प्लेटफ़ॉर्म पर कंटेंट को रीस्टोर करने और उसपर चेतावनी स्क्रीन लगाने के Meta के फ़ैसले को कायम रखा. हालाँकि, बोर्ड ने पाया कि इस केस में ख़बरों में रहने लायक होने के कारण छूट दी जा सकती है, लेकिन यह इस केस जैसे केसों का बड़े पैमाने पर समाधान करने के स्पष्ट स्टैंडर्ड या प्रभावी प्रोसेस नहीं देता. Meta की वैल्यू और मानवाधिकार ज़िम्मेदारियों के अनुसार, Meta को वयस्क यौन शोषण पॉलिसी में एक स्पष्ट रूप से परिभाषित अपवाद जोड़ना चाहिए जिसे ख़बरों में रहने लायक होने के कारण छूट देने के मुकाबले ज़्यादा एकरूपता और प्रभावी रूप से लागू किया जाता हो. अपवाद इस तरह बनाया जाना चाहिए जो सावर्जनिक मुद्दों पर जागरूकता फैलाने वाले कंटेंट की सुरक्षा करता हो और वयस्क यौन शोषण पॉलिसी का उल्लंघन करने वाले कंटेंट द्वारा प्रस्तुत नुकसान के विशिष्ट खतरों के बीच संतुलन कायम करने में Meta की मदद करता हो. बोर्ड के अधिकांश मेंबर्स ने माना कि ख़बरों में रहने लायक होने के कारण छूट देने के बजाय, वयस्क यौन शोषण पॉलिसी में सुझाया गया अपवाद लागू करना ज़्यादा बेहतर है जो इस केस में कंटेंट को परमिशन देगा. कुछ मेंबर्स ने कहा कि यह अपवाद, इस केस के कंटेंट पर लागू नहीं होता है.
2. केस का डिस्क्रिप्शन और बैकग्राउंड
मार्च 2022 में, खुद को दलितों का हिमायती समाचार प्लेटफ़ॉर्म बताने वाले एक Instagram अकाउंट ने भारत में हुई एक घटना का वीडियो पोस्ट किया, जिसमें पुरुषों का एक ग्रुप किसी महिला की पिटाई कर रहा है. भारत में जाति प्रथा के कारण दलितों, जिन्हें पहले “अछूत” कहा जाता था, को सामाजिक रूप से अलग-थलग रखा जाता है और वे आर्थिक रूप से पिछड़े हुए हैं. यह जाति प्रथा, सामाजिक विभाजन की वर्गीकरण प्रणाली है. वीडियो में महिला का चेहरा दिखाई नहीं दे रहा है और उसने पूरे कपड़े पहन रखे हैं. वीडियो के साथ अंग्रेज़ी में दिए गए टेक्स्ट में बताया गया था कि “आदिवासी महिला” का पुरुषों के एक समूह ने सार्वजनिक रूप से यौन उत्पीड़न करके उसे प्रताड़ित किया. साथ ही, टेक्स्ट में यह भी बताया गया कि यह वीडियो पहले वायरल हुआ था. भारत के मूल निवासियों को “आदिवासी” कहा जाता है. वीडियो पोस्ट करने वाले अकाउंट के लगभग 30,000 फ़ॉलोअर्स हैं, जिनमें से ज़्यादातर लोग भारत में रहते हैं. दलित और आदिवासी महिलाओं पर देश में बार-बार हमले किए जाते हैं (देखें सेक्शन 8.3.).
एक अन्य Instagram यूज़र ने यौन आग्रह के मामले में इस कंटेंट की रिपोर्ट की और इसे ह्यूमन रिव्यू के लिए भेज दिया गया. ह्यूमन रिव्यूअर्स ने यह पाया कि संबंधित कंटेंट से Meta की वयस्क यौन शोषण पॉलिसी का उल्लंघन हुआ है. इस पॉलिसी के तहत, Meta ऐसे कंटेंट को हटा देता है जिसमें “यौन हिंसा, यौन हमला या यौन शोषण दिखाया जाता है, इससे जुड़ी धमकी दी जाती है या इन्हें बढ़ावा दिया जाता है.” कंटेंट को हटाने के बाद Meta ने कंटेंट क्रिएटर के अकाउंट पर एक स्टैंडर्ड स्ट्राइक (वह स्ट्राइक जो सभी उल्लंघन प्रकारों पर लगती है), एक गंभीर स्ट्राइक (वह स्ट्राइक जो सबसे खराब उल्लंघन पर लगती है जिसमें वयस्क यौन शोषण पॉलिसी के उल्लंघन शामिल हैं) और 30 दिन की फ़ीचर सीमा लगाई. फ़ीचर सीमा ने यूज़र को लाइव वीडियो शुरू करने से रोका.
जिस दिन ओरिजनल कंटेंट हटाया गया था, उस दिन Meta की ग्लोबल ऑपरेशन टीम के एक मेंबर ने अपने निजी Instagram अकाउंट पर पोस्ट देखी जहाँ कंटेंट को हटाए जाने की चर्चा हो रही थी और उसने ओरिजनल पोस्ट को एस्केलेट किया. कंटेंट को एस्केलेट किए जाने के बाद, उसका रिव्यू Meta में पॉलिसी और सुरक्षा विशेषज्ञों द्वारा किया जाता है. एस्केलेट होने के बाद, Meta ने ख़बरों में रहने लायक होने के कारण छूट देते हुए स्ट्राइक हटा दीं, कंटेंट को रीस्टोर कर दिया और वीडियो पर चेतावनी स्क्रीन लगाकर लोगों को अलर्ट किया कि इसमें हिंसक या आपत्तिजनक कंटेंट हो सकता है. यह चेतावनी स्क्रीन 18 साल से कम उम्र के यूज़र्स को ऐसा कंटेंट देखने से रोकती है और अन्य सभी यूज़र्स को ऐसे वीडियो देखने के लिए स्क्रीन पर मौजूद बटन पर क्लिक करना होता है. ख़बरों में रहने लायक होने के कारण दी जाने वाली छूट के तहत Meta के प्लेटफ़ॉर्म पर ऐसा कंटेंट दिखाया जा सकता है, जिससे अन्यथा इसकी पॉलिसी का उल्लंघन तो हो सकता है, लेकिन वह कंटेंट ख़बरों में रहने लायक होता है और जिसे दिखाना लोगों के हित में होता है. यह छूट केवल Meta की विशेषज्ञ टीम दे सकती है. बड़े पैमाने पर कंटेंट का रिव्यू करने वाले ह्यूमन रिव्यूअर्स ऐसा नहीं कर सकते.
Meta ने बोर्ड को यह बताते हुए इस केस को रेफ़र किया कि इसमें "यौन शोषण की निंदा करने वाले कंटेंट को परमिशन देने और यौन उत्पीड़न के विजुअल हमारे प्लेटफ़ॉर्म पर दिखाने की परमिशन देने के नुकसान" के बीच सही संतुलन बनाए रखना एक चुनौती है.
3. ओवरसाइट बोर्ड की अथॉरिटी और स्कोप
बोर्ड के पास उन फ़ैसलों को रिव्यू करने का अधिकार है, जिन्हें Meta रिव्यू के लिए सबमिट करता है (चार्टर अनुच्छेद 2, सेक्शन 1; उपनियम अनुच्छेद 2, सेक्शन 2.1.1).
बोर्ड Meta के फ़ैसले को कायम रख सकता है या उसे बदल सकता है (चार्टर अनुच्छेद 3, सेक्शन 5) और उसका फ़ैसला कंपनी पर बाध्यकारी होता है (चार्टर अनुच्छेद 4). Meta को मिलते-जुलते संदर्भ वाले समान कंटेंट पर अपने फ़ैसले को लागू करने की संभावना का भी आकलन करना चाहिए (चार्टर अनुच्छेद 4). बोर्ड के फ़ैसलों में गैर-बाध्यकारी सलाहों के साथ पॉलिसी से जुड़े सुझाव हो सकते हैं, जिन पर Meta को जवाब देना होगा (चार्टर अनुच्छेद 3, सेक्शन 4; अनुच्छेद 4).
4.अथॉरिटी के सोर्स
ओवरसाइट बोर्ड ने इन अधिकारों और स्टैंडर्ड पर विचार किया:
I. ओवरसाइट बोर्ड के फ़ैसले:
ओवरसाइट बोर्ड के कुछ सबसे प्रासंगिक पुराने फ़ैसलों में ये शामिल हैं:
- “सूडान का आपत्तिजनक वीडियो” फ़ैसला ( 2022-002-FB-MR): इस केस में, जिसमें मानवाधिकार हनन के प्रति जागरूकता फैलाने के लिए पोस्ट किए गए आपत्तिजनक कंटेंट पर विचार किया गया था, बोर्ड इस निष्कर्ष पर पहुँचा कि “Facebook पर बड़े पैमाने पर इस तरह के कंटेंट की परमिशन देने के लिए ख़बरों में रहने लायक होने के कारण छूट देना प्रभावी साधन नहीं है.” उसने यह सुझाव दिया कि Meta यह सुनिश्चित करने के लिए कम्युनिटी स्टैंडर्ड में एक अपवाद शामिल करे कि इस अपवाद का बड़े पैमाने पर उपयोग किया जाता है. बोर्ड ने यह भी कहा कि “ख़बरों में रहने लायक होने के कारण परमिशन कब और कैसे दी जाएगी, इस बारे में स्पष्टता में कमी होने से इस पॉलिसी का मनमाना उपयोग किया जाएगा.” बोर्ड ने समझाया कि चेतावनी स्क्रीन आनुपातिक समाधान हो सकता है, क्योंकि “उनसे उन लोगों पर अकारण बोझ नहीं पड़ता जो कंटेंट देखना चाहते हैं. इससे अन्य लोगों को कंटेंट की प्रकृति की जानकारी मिलती है और वे तय कर सकते हैं कि इसे देखना है या नहीं. चेतावनी स्क्रीन से दिखाए गए व्यक्ति और उसके परिवार की गरिमा की भी पर्याप्त रक्षा होती है.”
- “कोलंबिया का विरोध प्रदर्शन” फ़ैसला: ( 2021-010-FB-UA): इस केस में, बोर्ड ने सुझाव दिया कि Meta “जनहित वाले कंटेंट का अतिरिक्त रिव्यू करवाने के लिए कंटेंट रिव्यूअर के लिए स्पष्ट शर्तें बनाए और उन्हें सार्वजनिक करे.” प्राइवेट आवास संबंधी जानकारी शेयर करने पर अपनी पॉलिसी परामर्शी राय में, बोर्ड ने यह सुझाव दोहराया.
- “अयोहस्का पेय” फ़ैसला ( 2021-013-IG-UA): इस केस में, बोर्ड ने तय किया कि कंटेंट को बनाए रखा जाना चाहिए, भले ही प्रासंगिक पॉलिसी ने कंटेंट को प्रतिबंधित किया है. कंटेंट को परमिशन देना Meta की वैल्यू और मानवाधिकार ज़िम्मेदारियों के अनुसार था और बोर्ड ने सुझाव दिया कि Meta अपनी पॉलिसी में बदलाव करके उन्हें अपनी वैल्यू और मानवाधिकार ज़िम्मेदारियों के अनुसार बनाए.
- “क्निन कार्टून” फ़ैसला ( 2022-001-FB-UA): इस केस में, बोर्ड ने यह तर्क दिया कि यह समझने में यूज़र्स की मदद करने के लिए कि उनके कंटेंट से किस तरह व्यवहार किया जाएगा, Meta को एस्केलेशन प्रोसेस के बारे में ज़्यादा विस्तार से जानकारी देनी चाहिए.
II. Meta की कंटेंट पॉलिसी:
Instagram कम्युनिटी गाइडलाइन
“कानून का पालन करें” शीर्षक के तहत Instagram कम्युनिटी गाइडलाइन कहती है कि Instagram “ऐसे मामलों को बिल्कुल भी सहन नहीं करता जिनमें नाबालिगों का यौन कंटेंट शेयर किया जाता है या दूसरे लोगों के निजी पलों की फ़ोटो पोस्ट करने की धमकी दी जाती है.” “निजी पलों की फ़ोटो” शब्दों में Meta ट्रांसपेरेंसी सेंटर में वयस्क यौन शोषण पर Facebook कम्युनिटी स्टैंडर्ड का लिंक शामिल है. कम्युनिटी गाइडलाइन, बिना सहमति के ली गई यौन फ़ोटो के चित्रण का स्पष्ट समाधान नहीं करतीं.
Facebook कम्युनिटी स्टैंडर्ड
वयस्क यौन शोषण पॉलिसी बनाने के कारण में Meta, “यौन हिंसा और शोषण की चर्चा करने और उनकी ओर ध्यान खींचने के स्थान के रूप में Facebook के महत्व” को मान्यता देता है. इसलिए, वह “पीड़ितों को अपने अनुभव शेयर करने की परमिशन देता है, लेकिन ऐसे कंटेंट को हटा देता है जिसमें यौन हिंसा, यौन हमला या यौन शोषण दिखाया जाता है, इससे जुड़ी धमकी दी जाती है या इन्हें बढ़ावा दिया जाता है.” पीड़ितों और ऐसी दुर्घटनाओं में बचे लोगों की सुरक्षा के लिए, Meta “यौन हिंसा की घटनाओं को दिखाने वाली फ़ोटो और निजी पलों की फ़ोटो को हटा देते हैं, जिन्हें इनमें दिखाए गए व्यक्तियों की सहमति के बिना शेयर किया गया हो.”
इस कम्युनिटी स्टैंडर्ड का “यह पोस्ट न करें” सेक्शन कहता है कि ऐसा कंटेंट प्लेटफ़ॉर्म से हटा दिया जाएगा “जिसमें किसी भी रूप में बिना सहमति के यौन स्पर्श किया गया हो” जैसे “चित्रण (असली दुनिया के कला के संदर्भ को छोड़कर वास्तविक फ़ोटो/वीडियो सहित).” यह पॉलिसी यह भी कहती है कि Meta “बिना सहमति के यौन स्पर्श दिखाने वाले कुछ ख़ास काल्पनिक वीडियो की दृश्यता को 18 वर्ष से अधिक उम्र के लोगों के लिए सीमित कर सकते हैं और साथ में चेतावनी का लेबल भी लगा सकता है.”
ट्रांसपेरेंसी सेंटर में Meta ने बताया है कि कोई स्ट्राइक लगाई जाएगी या नहीं, यह “इस बात पर निर्भर करता है कि कंटेंट की गंभीरता क्या है, उसे किस संदर्भ में शेयर किया गया था और उसे कब पोस्ट किया गया था.” उसका लक्ष्य है कि उसका स्ट्राइक सिस्टम “निष्पक्ष और आनुपातिक” हो.
ख़बरों में रहने लायक होने के कारण दी जाने वाली छूट
अपने ट्रांसपेरेंसी सेंटर में ख़बरों में रहने लायक होने के कारण दी जाने वाली छूट को परिभाषित करते हुए Meta कहता है कि वह “ऐसे कंटेंट को परमिशन देता है जो Facebook कम्युनिटी स्टैंडर्ड या Instagram कम्युनिटी गाइडलाइन का उल्लंघन करता है बशर्ते कंटेंट ख़बरों में रहने लायक हो और उसे बनाए रखना जनहित में हो.” Meta ऐसा तभी करता है जब “गहन रिव्यू के बाद यह नतीजा निकले कि कंटेंट से होने वाले खतरे की तुलना में उसकी जनहित वैल्यू ज़्यादा है” और ये “फ़ैसले लेने में मदद पाने के लिए हम अंतरराष्ट्रीय मानवाधिकार स्टैंडर्ड का भी ध्यान रखते हैं, जैसा कि हमारी कॉर्पोरेट मानवाधिकार पॉलिसी में बताया गया है.” पॉलिसी कहती है कि “न्यूज़ आउटलेट, राजनेताओं या अन्य लोगों सहित सभी सोर्स के कंटेंट को ख़बरों में रहने लायक होने के कारण छूट दी जा सकती है” और “भले ही संतुलन टेस्ट में इस बात पर ध्यान दिया जा सकता है कि वक्ता कौन है, हम पहले से यह नहीं मानते कि किसी व्यक्ति का कथन ख़बरों में रहने लायक होता है.” जब ख़बरों में रहने लायक होने के कारण छूट दी जाती है और कंटेंट को रीस्टोर किया जाता है, लेकिन वह संवेदनशील या परेशान करने वाला हो सकता है, तो रीस्टोर करते समय उसपर चेतावनी स्क्रीन लगाई जा सकती है.
जब नुकसान के खतरे के मुकाबले जनहित को ज़्यादा महत्व दिया जाता है, तब Meta इन बातों पर विचार करता है: क्या कंटेंट से लोगों के स्वास्थ्य या सुरक्षा को तात्कालिक खतरा है; क्या कंटेंट उन दृष्टिकोणों को अभिव्यक्ति देता है जिनकी राजनीतिक प्रक्रिया के भाग के रूप में फिलहाल चर्चा की जा रही है; देश विशिष्ट परिस्थितियाँ (उदाहरण के लिए, क्या कोई चुनाव हो रहा है या देश युद्ध लड़ रहा है); अभिव्यक्ति की प्रकृति जिसमें यह शामिल है कि क्या वह सरकार या राजनीति से संबंधित है; और देश की राजनीतिक संरचना, जिसमें यह शामिल है कि क्या वहाँ प्रेस को स्वतंत्रता है.
III. Meta की वैल्यू:
Meta की वैल्यू के बारे में Facebook के कम्युनिटी स्टैंडर्ड के परिचय में बताया गया है. “अभिव्यक्ति” के महत्व को “सर्वोपरि” बताया गया है:
हमारे कम्युनिटी स्टैंडर्ड का लक्ष्य हमेशा एक ऐसा प्लेटफ़ॉर्म बनाना रहा है, जहाँ लोग अपनी बात रख सकें और अपनी भावनाओं को व्यक्त कर सकें. […] हम चाहते हैं कि लोग अपने लिए महत्व रखने वाले मुद्दों पर खुलकर बातें कर सकें, भले ही कुछ लोग उन बातों पर असहमति जताएँ या उन्हें वे बातें आपत्तिजनक लगें.
Meta चार मूल्यों का सम्मान करने के लिए "अभिव्यक्ति" को सीमित कर देता है, जिनमें से इस केस में प्रासंगिक मूल्य “सुरक्षा,” “प्राइवेसी” और “गरिमा” हैं:
“सुरक्षा”: हम Facebook को एक सुरक्षित जगह बनाने के लिए प्रतिबद्ध हैं. लोगों को धमकाने वाले कंटेंट से लोगों में डर, अलगाव या चुप रहने की भावना आ सकती है और इसलिए Facebook पर ऐसा कंटेंट पोस्ट करने की परमिशन नहीं है.
“प्राइवेसी”: हम लोगों की प्राइवेसी और निजी जानकारी की सुरक्षा के लिए प्रतिबद्ध हैं. प्राइवेसी होने पर लोग अपने मन की बातें बिना झिझके कर सकते हैं, यह चुन सकते हैं कि उन्हें कोई चीज़ Facebook पर कब और कैसे शेयर करनी है और वे लोगों से और भी आसानी से जुड़ पाते हैं.
“गरिमा”: हमारा मानना है कि सभी लोगों को एक जैसा सम्मान और एक जैसे अधिकार मिलने चाहिए. हम उम्मीद करते है कि लोग एक-दूसरे की गरिमा का ध्यान रखेंगे और दूसरों को परेशान नहीं करेंगे या नीचा नहीं दिखाएँगे.
IV. अंतरराष्ट्रीय मानवाधिकार स्टैंडर्ड:
बिज़नेस और मानवाधिकारों के बारे में संयुक्त राष्ट्र संघ के मार्गदर्शक सिद्धांत (UNGP), जिन्हें 2011 में संयुक्त राष्ट्र संघ की मानवाधिकार समिति ने स्वीकृति दी है, प्राइवेट बिज़नेस की मानवाधिकार से जुड़ी ज़िम्मेदारियों का स्वैच्छिक ढाँचा तैयार करते हैं. 2021 में Meta ने मानवाधिकारों से जुड़ी अपनी कॉर्पोरेट पॉलिसी की घोषणा की, जिसमें उसने UNGP के अनुसार मानवाधिकारों का ध्यान रखने की अपनी प्रतिज्ञा को दोहराया. इस केस में बोर्ड ने Meta की मानवाधिकार से जुड़ी ज़िम्मेदारियों का विश्लेषण इन मानवाधिकार स्टैंडर्ड को ध्यान में रखते हुए किया.
- अभिव्यक्ति की आज़ादी का अधिकार: अनुच्छेद 19, नागरिक और राजनीतिक अधिकारों पर अंतरराष्ट्रीय प्रतिज्ञापत्र ( ICCPR), सामान्य कमेंट सं. 34, मानवाधिकार समिति, 2011; विचार और अभिव्यक्ति की आज़ादी के बारे में संयुक्त राष्ट्र संघ का ख़ास रैपर्टर कहता है: A/HRC/38/35 (2018).
- जीवन का अधिकार: अनुच्छेद 6, ICCPR.
- प्राइवेसी का अधिकार: अनुच्छेद 17, ICCPR.
- भेदभाव न किए जाने का अधिकार: अनुच्छेद 2, पैरा. 1, ICCPR; अनुच्छेद 1, महिलाओं के विरुद्ध सभी स्वरूपों के भेदभाव के निवारण संबंधी सम्मेलन ( CEDAW); महिलाओं के विरुद्ध लिंग आधारित हिंसा पर सामान्य सुझाव सं. 35, महिलाओं के विरुद्ध भेदभाव के निवारण पर संयुक्त राष्ट्र की समिति; नस्लीय नफ़रत फैलाने वाली भाषा से लड़ाई पर सामान्य सुझाव सं. 35, नस्लीय भेदभाव के उन्मूलन की समिति ( CERD).
- शारीरिक और मानसिक स्वास्थ्य का अधिकार: अनुच्छेद 12, आर्थिक, सामाजिक और सांस्कृतिक अधिकारों पर अंतरराष्ट्रीय प्रतिज्ञापत्र ( ICESCR);
- बच्चों के अधिकार: अनु्च्छेद 3, बच्चों के सर्वश्रेष्ठ हित के बारे में बच्चों के अधिकारों पर सम्मेलन ( CRC); सभी तरह की शारीरिक या मानसिक हिंसा से रक्षा के बच्चों के अधिकारों पर अनुच्छेद 17 और 19, CRC; सामान्य कमेंट सं. 25, बाल अधिकार समिति, 2021.
5. यूज़र सबमिशन
Meta के रेफ़रल और बोर्ड द्वारा केस स्वीकार करने के फ़ैसले के बाद, यूज़र को बोर्ड के रिव्यू की सूचना का मैसेज भेजा गया और उन्हें बोर्ड के सामने बयान देने का मौका दिया गया. यूज़र ने कोई बयान नहीं दिया.
6. Meta के सबमिशन
इस केस में कारण बताते हुए Meta ने कहा कि यूज़र की पोस्ट में दिए गए कैप्शन और बैकग्राउंड से यह संकेत मिला कि उसका इरादा उपेक्षित कम्युनिटी पर हो रही हिंसा की निंदा करना और उसके प्रति जागरूकता लाना था. हालाँकि, वयस्क यौन शोषण पॉलिसी में इसके लिए कोई प्रासंगिक अपवाद नहीं है.
ख़बरों में रहने लायक होने के कारण छूट देने के अपने फ़ैसले के बारे में Meta ने कहा कि इस कंटेंट की जनहित वैल्यू ज़्यादा थी क्योंकि कंटेंट को ऐसे समाचार संगठन द्वारा शेयर किया गया था जो कम प्रतिनिधित्व वाले और उपेक्षित लोगों की ख़बरें हाइलाइट करता है. Meta ने कहा कि कंटेंट को वीडियो में दिखाई दे रहे व्यवहार की निंदा करने और आदिवासी महिलाओं पर हो रही लिंग आधारित हिंसा के प्रति जागरूकता फैलाने के इरादे से शेयर किया गया दिखाई पड़ता है. Meta ने तर्क दिया कि आदिवासी और उपेक्षित आवाज़ों को भारत में लंबे समय से दबाया जाता रहा है और इस कंटेंट के ज़्यादा लोगों तक पहुँचने और देखे जाने से फ़ायदा मिलेगा. Meta ने यह भी तर्क दिया कि नुकसान का खतरा सीमित था क्योंकि वीडियो में प्रत्यक्ष नग्नता या स्पष्ट यौन एक्टिविटी नहीं थी और यह सनसनी नहीं फैलाता. उसने तर्क दिया कि “यह केस एक अपवाद था क्योंकि उसमें पीड़ित का चेहरा दिखाई नहीं दे रहा है और उसे पहचाना नहीं जा सकता.”
बोर्ड द्वारा पूछे गए सवालों के जवाब में Meta ने आगे कहा कि “यूज़र द्वारा ख़ुद को समाचार संगठन बताया जाना ऐसा तथ्य है जिसपर विचार किया जाता है लेकिन इस आधार पर यह तय नहीं किया जाता कि क्या उसे समाचार संगठन माना जाए.” विषयवस्तु विशेषज्ञ और क्षेत्रीय बाज़ार विशेषज्ञ यह तय करते हैं कि किस यूज़र को समाचार संगठन माना जाए. यह तय करते समय वे कई बातों पर विचार करते हैं जिनमें बाज़ार की उनकी जानकारी और संगठनों का पुराना वर्गीकरण शामिल है. Meta ने यह तर्क दिया कि उसका फ़ैसला और पॉलिसी, उसकी वैल्यू और मानवाधिकार ज़िम्मेदारियों के अनुरूप है.
बोर्ड ने इस केस में Meta से 15 सवाल पूछे. Meta ने 14 का पूरी तरह जवाब दिया और एक का जवाब नहीं दिया. बोर्ड ने Meta से कहा कि वह भारत के बारे में अपनी मानवाधिकार प्रभाव आकलन रिपोर्ट बोर्ड से शेयर करे, लेकिन Meta ने सुरक्षा जोखिमों का हवाला देते हुए इससे इंकार कर दिया. Meta इस बात का संतोषजनक जवाब नहीं दे पाया कि बोर्ड से मानवाधिकार प्रभाव आकलन रिपोर्ट शेयर करने से क्या सुरक्षा जोखिम होगा.
7. पब्लिक कमेंट
ओवरसाइट बोर्ड ने लोगों की ओर से इस केस पर मिले 11 कमेंट पर विचार किया. एक कमेंट एशिया पैसिफ़िक और ओशियानिया, चार मध्य और दक्षिण एशिया, तीन यूरोप और तीन अमेरिका और कनाडा से सबमिट किए गए थे.
सबमिशन में इन विषयों पर बात की गई थी: भारत में आदिवासियों की उपेक्षा; जाति व्यवस्था का ताकत से संबंध; वीडियो से अपराधियों को प्रोत्साहन मिलने और हिंसा में योगदान होने की संभावना; गैर-यौन हिंसा और यौन हिंसा के बीच अंतर और यौन हिंसा के संबंध में संदर्भात्मक आकलन का महत्व; यौन उत्पीड़न के पीड़ितों के उनकी ख़ुद की कम्युनिटी से बहिष्कार का जोखिम; अंतरअनुभागीयता; यौन हमलों में बचे लोगों को चोट पहुँचने के जोखिम; भारत में सोशल मीडिया पर नफ़रत फैलाने वाली भाषा के नुकसानदायक असर; उपेक्षित समूहों पर हो रही हिंसा के प्रति जागरूकता फैलाने के साधन के रूप में सोशल मीडिया का महत्व; और Meta द्वारा हटाए गए कंटेंट का अत्यंत सुरक्षित कैशे रखने का महत्व जो कानून प्रवर्तन अधिकारियों के लिए उपलब्ध हो.
इस केस को लेकर लोगों की ओर से सबमिट किए गए कमेंट देखने के लिए कृपया यहाँ क्लिक करें.
8.ओवरसाइट बोर्ड का विश्लेषण
बोर्ड ने इन तीन दृष्टिकोणों से इस सवाल पर ध्यान दिया कि क्या इस कंटेंट को रीस्टोर कर दिया जाना चाहिए: Meta की कंटेंट पॉलिसी, कंपनी की वैल्यू और मानवाधिकारों से जुड़ी उसकी ज़िम्मेदारियाँ.
8.1 Meta की कंटेंट पॉलिसी का अनुपालन
बोर्ड मानता है कि इस केस में ख़बरों में रहने लायक होने के कारण छूट दी जा सकती है, लेकिन वह इस तरह के कंटेंट के बड़े पैमाने पर आकलन के लिए स्पष्ट स्टैंडर्ड या प्रभावी प्रोसेस नहीं देता. बोर्ड इसलिए सुझाव देता है कि किसी भी पॉलिसी में सामान्य अपवाद के रूप में ख़बरों में रहने लायक होने के कारण छूट देने के अलावा, Meta को वयस्क यौन शोषण पॉलिसी में एक अपवाद शामिल करना चाहिए जो बड़े पैमाने पर कंटेंट को मॉडरेट करने के लिए एक स्पष्ट और प्रभावी प्रोसेस उपलब्ध कराएगा.
बोर्ड के अधिकांश मेंबर्स ने माना कि इस केस में कंटेंट को ऐसे अपवाद के अंतर्गत परमिशन दी जानी चाहिए, जबकि कुछ मेंबर्स मानते हैं कि इस विशिष्ट कंटेंट पर कोई अपवाद लागू नहीं किया जाना चाहिए और यह कि इसे प्लेटफ़ॉर्म से हटा दिया जाना चाहिए.
I.कंटेंट नियम और एन्फ़ोर्समेंट
बोर्ड, Meta के इस आकलन से सहमत है कि इस केस का कंटेंट, बिना सहमति के यौन स्पर्श करने के चित्रण पर वयस्क यौन शोषण स्टैंडर्ड के तहत की गई मनाही का उल्लंघन करता है.
बोर्ड के अधिकांश मेंबर्स, कंटेंट को बहाल करने के पीछे के Meta के कारण के सार से सहमत है और मानता है कि इस केस में ख़बरों में रहने लायक होने के कारण छूट दी जा सकती है क्योंकि कंटेंट से बड़ा जनहित जुड़ा है. हालाँकि, बोर्ड मानता है कि ख़बरों में रहने लायक होने के कारण छूट देना इस केस जैसे कंटेंट के आकलन के लिए बड़े पैमाने पर पर्याप्त स्टैंडर्ड या प्रोसेस उपलब्ध नहीं कराता, क्योंकि इसे प्रभावी और एकसमान रूप से लागू करना सुनिश्चित नहीं किया जा सकता.
बोर्ड, Meta के इस आकलन से सहमत है कि इस कंटेंट को प्लेटफ़ॉर्म पर बनाए रखने से बड़ा जनहित जुड़ा है क्योंकि यह उपेक्षित कम्युनिटी के साथ होने वाली हिंसा के प्रति जागरूकता लाता है. बोर्ड इस बात से भी सहमत है कि कंटेंट को प्लेटफ़ॉर्म पर बनाए रखने से, जिसमें हमले सहित बिना सहमति का यौन स्पर्श दिखाया गया है, नुकसान का गंभीर खतरा पैदा हो सकता है (नीचे दिया सेक्शन 8.3 देखें). बोर्ड आगे Meta की इस बात से सहमत है कि जिन केसों में बिना सहमति के यौन स्पर्श के पीड़ित को पहचाना जा सकता है, वहाँ संभावित नुकसान बहुत ज़्यादा होता है और कंटेंट को सामान्य तौर पर हटा दिया जाना चाहिए, अगर उसे पीड़ित की सहमति के बिना पोस्ट किया गया हो.
इस केस में, बोर्ड इस बात से सहमत नहीं है कि क्या पीड़ित को पहचाना जा सकता है. बोर्ड के अधिकांश मेंबर मानते हैं कि पीड़ित को पहचाना नहीं जा सकता. वीडियो में पीड़ित का चेहरा दिखाई नहीं दे रहा है और वीडियो को दूर से शूट किया गया है और उसकी क्वालिटी ज़्यादा अच्छी नहीं है. कैप्शन में पीड़ित की पहचान के बारे में कोई जानकारी नहीं दी गई है. कुछ मेंबर्स मानते हैं कि कंटेंट को इस आधार पर प्लेटफ़ॉर्म से हटा दिया जाना चाहिए कि इस बात की कुछ संभावना है कि पीड़ित को पहचान लिया जाए. वीडियो के ऐसे व्यूअर जिन्हें क्षेत्र या घटना की स्थानीय जानकारी है, वे पीड़ित को तब भी पहचान सकते हैं जब उसका चेहरा दिखाई न दे रहा हो. कुछ मेंबर्स का मानना है कि इस बात की संभावना ख़ास तौर पर बहुत अधिक है क्योंकि स्थानीय समाचार आउटलेट ने इस घटना की व्यापक रिपोर्टिंग की थी. अधिकांश मेंबर्स ने कुछ मेंबर्स की इस चिंता को समझा लेकिन वे यह नहीं मानते कि घटना की स्थानीय जानकारी होने से ही यह मतलब नहीं निकलता कि पीड़ित को “पहचाना” जा सकता है.
बोर्ड ने यह सुझाव दिया कि Meta अपनी वैल्यू और मानवाधिकार ज़िम्मेदारियों के आधार पर अपनी पॉलिसी और प्रोसेस का रिव्यू करे, जैसा कि नीचे सेक्शन 8.2 और 8.3 में बताया गया है, और वयस्क यौन शोषण स्टैंडर्ड में एक स्पष्ट रूप से परिभाषित अपवाद प्रस्तुत करे जिसे ख़बरों में रहने लायक होने के कारण छूट देने के बजाय ज़्यादा एकरूपता और प्रभावी तरीके से उपयोग किया जा सके.
II.पारदर्शिता
“कोलंबिया के विरोध प्रदर्शन” और “सूडान का आपत्तिजनक वीडियो” फ़ैसलों में बोर्ड के सुझावों का पालन करते हुए, Meta ने अपने ट्रांसपेरेंसी सेंटर में इस बारे में ज़्यादा जानकारी दी है कि इस कंटेंट पर ख़बरों में रहने लायक होने के कारण छूट देने का फ़ैसला करते समय उसने किन बातों पर विचार किया. हालाँकि उसने “संभावित रूप से कम्युनिटी स्टैंडर्ड का उल्लंघन करने वाले, लेकिन ख़बरों में रहने लायक होने के कारण छूट पाने योग्य जनहित के कंटेंट को अतिरिक्त रिव्यू के लिए कंटेंट रिव्यूअर्स के पास भेजने हेतु स्पष्ट शर्तें” नहीं बनाईं और उनका प्रचार नहीं किया, जैसा कि बोर्ड ने “कोलंबिया के विरोध प्रदर्शन” फ़ैसले में सुझाव दिया था और निजी आवासों की जानकारी शेयर करने पर अपनी पॉलिसी परामर्शी राय में कहा था. बोर्ड ने यह चिंता दोहराई कि ख़बरों में रहने लायक होने के कारण छूट देने के संदर्भ में Meta को एस्केलेशन प्रोसेस की ज़्यादा जानकारी देनी चाहिए.
8.2 Meta की वैल्यू का अनुपालन
अन्य कई केसों की तरह इस केस में भी Meta की "अभिव्यक्ति," “प्राइवेसी,” "सुरक्षा" और "गरिमा" की वैल्यू अलग-अलग दिशाओं की ओर इशारा कर सकती हैं.
आदिवासियों के साथ दुर्व्यवहार के बारे में जागरूकता फैलाना “अभिव्यक्ति” की वैल्यू के तहत आता है और उससे आदिवासियों की सुरक्षा और गरिमा की रक्षा करने में भी मदद मिल सकती है. दूसरी ओर, यौन हमले का प्रचार करना पीड़ित की दृष्टि से ठीक नहीं है या इससे ऐसा व्यवहार सामान्य बन सकता है और इससे पीड़ित या उनकी कम्युनिटी के अन्य लोगों की प्राइवेसी, गरिमा और सुरक्षा पर बुरा असर पड़ सकता है.
चूँकि इस केस में वीडियो स्पष्ट नहीं था और बोर्ड के अधिकांश मेंबर्स ने माना कि पीड़ित को पहचाना नहीं जा सकता, इसलिए अधिकांश मेंबर्स मानते हैं कि वीडियो को प्लेटफ़ॉर्म पर बने रहने देना Meta की समग्र वैल्यू के अनुसार है. हालाँकि बोर्ड के कुछ मेंबर्स मानते हैं कि भले ही पीड़ित को पहचाने जाने की संभावना बहुत कम है, फिर भी पहचान का वास्तविक जोखिम अभी भी मौजूद है. उनके दृष्टिकोण में, पीड़ित की प्राइवेसी, गरिमा और सुरक्षा को महत्व देते हुए वीडियो को हटा दिया जाना चाहिए.
8.3 Meta की मानवाधिकारों से जुड़ी ज़िम्मेदारियों का अनुपालन
बोर्ड के अधिकांश मेंबर्स ने पाया कि इस कंटेंट को प्लेटफ़ॉर्म पर रखना Meta की मानवाधिकार से जुड़ी ज़िम्मेदारियों के अनुसार है. Meta, बिज़नेस और मानवाधिकारों के बारे में संयुक्त राष्ट्र के मार्गदर्शक सिद्धांतों (UNGP) के तहत मानवाधिकारों का सम्मान करने के लिए प्रतिबद्ध है. इसकी कॉर्पोरेट मानवाधिकार पॉलिसी में बताया गया है कि इस प्रतिबद्धता में नागरिक और राजनैतिक अधिकारों से संबंधित अंतरराष्ट्रीय प्रतिज्ञापत्र (ICCPR) का सम्मान करना शामिल है.
अभिव्यक्ति की आज़ादी (अनुच्छेद 19 ICCPR)
अभिव्यक्ति की आज़ादी के अधिकार का दायरा बहुत बड़ा है. ICCPR का अनुच्छेद 19, पैरा. 2, राजनैतिक मुद्दों की अभिव्यक्ति को ज़्यादा सुरक्षा देता है (सामान्य कमेंट सं. 34, पैरा. 20 और 49). इंटरनेशनल कन्वेंशन ऑन द एलिमिनेशन ऑफ़ ऑल फ़ॉर्म्स ऑफ़ रेशियल डिस्क्रिमिनेशन (ICERD), अभिव्यक्ति की आज़ादी के अधिकार के उपयोग में भेदभाव से रक्षा प्रदान करता है (अनुच्छेद 5). नस्लीय भेदभाव की समाप्ति के लिए बनी कमिटी ने "समाज के घटकों में शक्ति संतुलन को फिर से स्थापित करने में असुरक्षित समूहों" की सहायता के संबंध में और चर्चाओं में "वैकल्पिक विचार और जवाब" प्रदान करने के लिए अधिकार के महत्व पर ज़ोर दिया है (CERD समिति, सामान्य सुझाव 35, पैरा. 29). इस केस का कंटेंट, भारत में आदिवासी महिलाओं के साथ होने वाली हिंसा के प्रति जागरूकता फैलाने के लिए शेयर किया गया लगता है और वह सामान्य कमेंट सं. 34 में बताए गए स्टैंडर्ड के अनुसार है जिसे उच्च स्तर की सुरक्षा प्राप्त है.
अनुच्छेद 19, पैरा. 3, ICCPR, के तहत अभिव्यक्ति पर लगाए जाने वाले प्रतिबंध (i) कानून द्वारा प्रदत्त होने चाहिए, (ii) उनका लक्ष्य विधिसम्मत होना चाहिए और (iii) वे ज़रूरी और आनुपातिक होने चाहिए. ICCPR के दायित्व Meta के लिए उस तरह बाध्यकारी नहीं हैं जिस तरह वे देशों के लिए हैं, लेकिन अभिव्यक्ति की आज़ादी पर संयुक्त राष्ट्र के विशेष रैपर्टर में तीन भागों वाले इस टेस्ट का प्रस्ताव दिया गया है जो प्लेटफ़ॉर्म के कंटेंट मॉडरेशन आचरण के मार्गदर्शन में फ़्रेमवर्क का काम करेगा ( A/HRC/38/35).
I. वैधानिकता (नियमों की स्पष्टता और सुलभता)
अभिव्यक्ति को सीमित करने वाले नियम स्पष्ट और सुलभ होने चाहिए, ताकि प्रभावित हुए लोगों को नियमों की जानकारी हो और वे उनका पालन कर सकें (सामान्य कमेंट सं. 34, पैरा 24-25). अगर Meta की बात करें, तो इसके प्लेटफ़ॉर्म पर मौजूद यूज़र्स और नियम एन्फ़ोर्स करने वाले रिव्यूअर्स को यह समझ में आना चाहिए कि क्या करने की परमिशन है और किस कंटेंट पर रोक लगाई गई है. इस केस में बोर्ड इस निष्कर्ष पर पहुँचा कि Meta उस ज़िम्मेदारी को पूरा करने से चूक गया.
बोर्ड ने पाया कि ख़बरों में रहने लायक कंटेंट की पॉलिसी की भाषा अस्पष्ट है और वह उसे लागू करने वाले व्यक्ति के लिए अपने विवेक से फ़ैसला लेने की बहुत गुंजाइश छोड़ती है. जैसा कि बोर्ड ने “सूडान का आपत्तिजनक वीडियो” केस (2022-002-FB-MR) में बोर्ड ने कहा था कि अगर स्टैंडर्ड अस्पष्ट होते हैं तो कंटेंट मॉडरेट करते समय उनका उपयोग मनचाहे ढंग से किया जा सकता है और वे प्रभावित अधिकारों का पर्याप्त संतुलन सुनिश्चित नहीं कर पाते.
बोर्ड ने फिर से इस बात पर ध्यान आकर्षित किया कि Instagram यूज़र्स के लिए यह स्पष्ट नहीं है कि उनके कंटेंट पर कौन सी पॉलिसी लागू होंगी, ख़ास तौर पर, क्या Facebook पॉलिसी लागू होगी और कब लागू होगी (उदाहरण के लिए, “ब्रेस्ट कैंसर के लक्षण और नग्नता” केस (2020-004-IG-UA) और “अयोहस्का पेय” केस (2021-013-IG-UA) में बोर्ड के फ़ैसले देखें). बोर्ड ने अपनी चिंता यहाँ दोहराई.
बोर्ड ने आगे दोहराया कि ऐसे स्टैंडर्ड, आंतरिक मार्गदर्शन और प्रोसेस की ज़्यादा जानकारी की अत्यंत ज़रूरत है जो यह तय करे कि कंटेंट को कब एस्केलेट करना है (उदाहरण के लिए, “कोलंबिया में विरोध प्रदर्शन” केस, “सूडान का आपत्तिजनक वीडियो” केस और “क्निन कार्टून” केस देखें). यूज़र्स को यह समझने के लिए कि कंटेंट को ख़बरों में रहने लायक होने के कारण छूट कब और कैसे मिलेगी, Meta को एस्केलेशन प्रोसेस पर विस्तृत जानकारी देनी चाहिए.
II.वैधानिक लक्ष्य
अनुच्छेद 19, पैरा. 3, ICCPR, के तहत “अन्य लोगों के अधिकारों की सुरक्षा” करने के लिए अभिव्यक्ति की आज़ादी को सीमित किया जा सकता है. वयस्क यौन शोषण पॉलिसी का लक्ष्य दुर्व्यवहार, फिर से शिकार होने, सामाजिक लांछन, डॉक्सिंग और उत्पीड़न के अन्य रूपों से बचाना है. यह जीने के अधिकार (अनुच्छेद 6, ICCPR), प्राइवेसी के अधिकार (अनुच्छेद 17, ICCPR) और शारीरिक और मानसिक स्वास्थ्य के अधिकार (अनुच्छेद 12, ICESCR) की रक्षा करता है. यह भेदभाव और लिंग आधारित हिंसा रोकने (अनुच्छेद 2, पैरा. 1, ICCPR, अनुच्छेद 1, CEDAW) का लक्ष्य भी पूरा करता है.
चेतावनी स्क्रीन लगाते समय Meta, ऊपर बताए गए नुकसानों को कम करने और दूसरों की सुरक्षा करने का वैधानिक लक्ष्य पूरा करता है. स्क्रीन पर दिखाई देने वाली चेतावनी का लक्ष्य, यौन उत्पीड़न से पीड़ित लोगों को फिर से चोट पहुँचने, परेशान करने वाले और आपत्तिजनक कंटेंट से बचाना है (अनुच्छेद 12, CESCR). उम्र संबंधी प्रतिबंध, बच्चों को नुकसानदेह कंटेंट से बचाने का वैधानिक लक्ष्य भी पूरा करता है (अनुच्छेद 3, 17 और 19, CRC).
III. आवश्यकता और आनुपातिकता
आवश्यकता और आनुपातिकता के सिद्धांत के अनुसार यह ज़रूरी है कि अभिव्यक्ति की आज़ादी से संबंधित प्रतिबंध "रक्षा करने के उनके कार्य को सही तरीके से पूरा करने वाले होने चाहिए; उनसे उन लोगों के अधिकारों में कम से कम हस्तक्षेप होना चाहिए, जिन्हें उन प्रतिबंधों से होने वाले रक्षात्मक कार्यों का लाभ मिल सकता है; [और] जिन हितों की सुरक्षा की जानी है, उसके अनुसार ही सही अनुपात में प्रतिबंध लगाए जाने चाहिए" (सामान्य कमेंट 34, पैरा. 34).
इस केस में, अधिकांश मेंबर्स ने पाया कि कंटेंट को हटाना ज़रूरी और आनुपातिक नहीं होगा लेकिन यह कि चेतावनी स्क्रीन और उम्र संबंधी प्रतिबंध लगाने से यह टेस्ट पूरा हो जाएगा. कुछ मेंबर्स ने पाया कि कंटेंट हटाना आवश्यक और आनुपातिक है. बोर्ड ने पाया कि Meta की मानवाधिकार ज़िम्मेदारियों के लिए यह ज़रूरी है कि वह स्पष्ट स्टैंडर्ड और इस केस जैसे केसों में प्लेटफ़ॉर्म पर कंटेंट की परमिशन देने के लिए ज़्यादा प्रभावी एन्फ़ोर्समेंट प्रोसेस उपलब्ध कराए. इसलिए उसने सुझाव दिया कि Meta, वयस्क यौन शोषण स्टैंडर्ड में एक स्पष्ट रूप से परिभाषित अपवाद शामिल करे, जो बड़े पैमाने पर प्रतिस्पर्धी अधिकारों में संतुलन बनाने का बेहतर तरीका होगा. एक सामान्य अपवाद के रूप में, जिसका उपयोग शायद ही कभी किया जाता है, ख़बरों में रहने लायक होने के कारण छूट आगे भी दी जाती रहेगी और उससे Meta को यह आकलन करने की सुविधा मिलेगी कि क्या जनहित की वैल्यू नुकसान के जोखिम से ज़्यादा है और इसमें वे केस भी शामिल हैं जिनमें पीड़ित की पहचान की जा सकती है.
कंटेंट को बनाए रखने का फ़ैसला
बोर्ड यह मानता है कि इस जैसे कंटेंट से गंभीर नुकसान हो सकता है. इसमें पीड़ित को होने वाले नुकसान शामिल हैं, जिसे अगर पहचाना जाता है, तो वह फिर से शिकार हो सकता है, उसपर सामाजिक लांछन लग सकता है, उसके साथ डॉक्सिंग हो सकती है और उसके साथ अन्य तरह का दुर्व्यवहार या उत्पीड़न हो सकता है (PC-10802 देखें (डिजिटल राइट्स फ़ाउंडेशन)). जब पीड़ित को पहचाना जा सकता हो, तब संभावित नुकसानों की गंभीरता बहुत ज़्यादा होती है. अगर पीड़ित को पहचाना नहीं जा सकता है, तो नुकसान का खतरा काफी हद तक कम हो जाता है. इस केस में, अधिकांश मेंबर्स ने माना कि पीड़ित के पहचाने जाने की संभावना बहुत कम है. भले ही पीड़ित को सार्वजनिक रूप से पहचाना न जा सकता हो, पीड़ित को प्लेटफ़ॉर्म पर कंटेंट के साथ इंटरैक्ट करके और कमेंट से और कंटेंट को फिर से शेयर करके नुकसान पहुँचाया जा सकता है. अधिकांश मेंबर्स ने यह माना कि कंटेंट पर चेतावनी स्क्रीन लगाने से इस चिंता का समाधान हो जाएगा.
बोर्ड ने व्यापक जोखिमों पर भी विचार किया. भारत में जाति के आधार पर नफ़रत फैलाने वाली भाषा के प्रसार के लिए सोशल मीडिया की आलोचना होती रही है ( इंटरनेशनल दलित सोलिडेटरी नेटवर्क की मार्च 2021 की जातिगत नफ़रत फैलाने वाली भाषा की रिपोर्ट देखें). ऑनलाइन कंटेंट मौजूदा ताकतों को प्रतिबिंबित कर सकता है और उन्हें मज़बूत बना सकता है, अपराधियों को प्रोत्साहित कर सकता है और कमज़ोर लोगों पर होने वाली हिंसा को बढ़ावा दे सकता है. महिलाओं पर होने वाली हिंसा दिखाने से ऐसी हिंसा की ज़्यादा स्वीकार्यता की प्रवृत्ति पनप सकती है. सार्वजनिक कमेंट से यह हाइलाइट हुआ कि यौन उत्पीड़न में उत्पीड़न का ख़ास तौर पर क्रूर स्वरूप दिखाई देता है (उदाहरण के लिए, PC-10808 (SAFEnet), PC-10806 (बदलाव के लिए IT), PC-10802 (डिजिटल राइट्स फ़ाउंडेशन), PC-10805 (मीडिया मेटर्स फ़ॉर डेमोक्रेसी) देखें).
अधिकांश मेंबर्स ने उन खतरों को इस तथ्य से संतुलित किया कि उपेक्षित कम्युनिटी पर होने वाली हिंसा के खिलाफ़ जागरूकता फैलाने के लिए समाचार संगठनों और कार्यकर्ताओं के लिए सोशल मीडिया पर निर्भर रहना ज़रूरी है (PC-10806 (बदलाव के लिए IT), PC-10802 (डिजिटल राइट्स फ़ाउंडेशन), PC-10808 (SAFEnet) देखें), ख़ास तौर पर उस संदर्भ में जहाँ मीडिया की आज़ादी को खतरा है (ह्यूमन राइट्स वॉच की रिपोर्ट देखें). भारत में, दलित और आदिवासी लोगों, ख़ास तौर पर महिलाएँ जो जाति और लिंग के कारण निशाने पर होती हैं (PC-10806, (बदलाव के लिए IT) देखें), के साथ गंभीर भेदभाव होता है और उनके साथ होने वाले अपराध बढ़ते जा रहे हैं. नागरिक समाज संगठनों ने गैर-हिंदुओं और अल्पसंख्यक जातियों के साथ जातिगत-धार्मिक भेदभाव बढ़ने की रिपोर्ट की है जो कानून की समान सुरक्षा को कमज़ोर करता है (ह्यूमन राइट्स वॉच की रिपोर्ट देखें). सरकार स्वतंत्र समाचार संगठनों को निशाना बना रही है और सार्वजनिक रिकॉर्ड में आदिवासी और दलित लोगों और कम्युनिटी के साथ होने वाले अपराधों के आँकड़े कम दिखाए जाते हैं, इसलिए भेदभाव और हिंसा को डॉक्यूमेंट करने का सोशल मीडिया एक महत्वपूर्ण साधन बन गया है (ह्यूमन राइट्स वॉच की रिपोर्ट और ऊपर बताए सार्वजनिक कमेंट देखें).
आखिरकार बोर्ड इस सवाल पर असहमत है कि क्या इस विशेष केस में पीड़ित को पहचाने जाने का कोई तर्कसंगत जोखिम है. अधिकांश मेंबर्स का मानना है कि जोखिम बहुत कम है और इसलिए चेतावनी स्क्रीन का उपयोग करने पर कंटेंट को प्लेटफ़ॉर्म पर बनाए रखने का हित, संभावित नुकसान के मुकाबले ज़्यादा है. कुछ मेंबर्स मानते हैं कि शेष जोखिमों के कारण कंटेंट को प्लेटफ़ॉर्म से हटाना ज़रूरी है.
चेतावनी स्क्रीन और उम्र संबंधी प्रतिबंध
बोर्ड मानता है कि चेतावनी स्क्रीन लगाना, हटाने के मुकाबले “छोटा प्रतिबंध” है. इस केस में अधिकांश मेंबर्स ने माना कि चेतावनी स्क्रीन का उपयोग करना, अभिव्यक्ति की आज़ादी की सुरक्षा करते हुए कंटेंट द्वारा प्रस्तुत संभावित नुकसान को कम करने का सबसे कम रुकावट डालने वाला तरीका होगा. जैसा कि बोर्ड ने “सूडान का आपत्तिजनक वीडियो” केस में पाया, चेतावनी स्क्रीन से “उन लोगों पर अकारण बोझ नहीं पड़ता जो कंटेंट देखना चाहते हैं. इससे अन्य लोगों को कंटेंट की प्रकृति की जानकारी मिलती है और वे तय कर सकते हैं कि इसे देखना है या नहीं.” इसके अलावा, इससे “दिखाए गए व्यक्ति और उसके परिवार की गरिमा की भी पर्याप्त रक्षा होती है.” कुछ मेंबर्स ने माना कि चेतावनी स्क्रीन का उपयोग करने से संभावित नुकसानों पर कुछ ख़ास असर नहीं पड़ता और उन नुकसानों की गंभीरता को देखते हुए कंटेंट को हटाना ही उचित है.
चेतावनी स्क्रीन से उम्र संबंधी प्रतिबंध भी ट्रिगर होता है, जिसका लक्ष्य नाबालिगों की सुरक्षा करना है. डिजिटल वातावरण के संबंध में बच्चों के अधिकारों पर कमेंट सं. 25 कहता है कि “पार्टियों को उसे सभी उचित उपाय करने चाहिए जो जीवन, उत्तरजीविता और डेवलपमेंट के बच्चों के अधिकारों की जोखिमों से सुरक्षा करें. कंटेंट से संबंधित जोखिमों में ... अन्य चीज़ों के अलावा हिंसक और यौन कंटेंट शामिल है...” (पैरा 14). यह आगे कहता है कि बच्चों की “डिजिटल वातावरण में हिंसा के सभी रूपों से भी सुरक्षा की जानी चाहिए” (पैरा. 54, 103). बोर्ड के अधिकांश मेंबर्स, Meta के इस कारण से सहमत हैं कि उम्र संबंधी प्रतिबंध लगाने से नाबालिगों की सुरक्षा और ऐसे कंटेंट को दिखाए जाने के उद्देश्यों का समाधान होता है जो जनहित में है.
पॉलिसी की डिज़ाइन और एन्फ़ोर्समेंट प्रोसेस
भले ही अधिकांश मेंबर्स, कंटेंट को प्लेटफ़ॉर्म पर बनाए रखने के Meta के अंतिम फ़ैसले से सहमत हैं, बोर्ड यह मानता है कि ख़बरों में रहने लायक होने के कारण छूट देना बड़े पैमाने पर प्रभावशील नहीं है. बोर्ड ने एकमत से यह पाया कि प्लेटफ़ॉर्म पर उपेक्षित ग्रुप पर यौन हिंसा के चित्रण की परमिशन देना स्पष्ट पॉलिसी पर आधारित होना चाहिए और उसमें एन्फ़ोर्समेंट के सूक्ष्म अंतर बताए जाने चाहिए. उसमें जागरूकता फैलाने के उद्देश्य से शेयर की गई इस तरह की पोस्ट को ऐसी पोस्ट से अलग रखा जाना चाहिए जिन्हें इन लोगों और कम्युनिटी पर हिंसा या भेदभाव को प्रोत्साहित करने के लिए शेयर किया जा रहा है. इसमें ऐसे कंटेंट द्वारा प्रस्तुत नुकसान के जोखिमों का आकलन करनी की स्पष्ट शर्तें होनी चाहिए ताकि Meta बड़े पैमाने पर प्रतिस्पर्धी अधिकारों के बीच संतुलन रख सके.
ख़बरों में रहने लायक होने के कारण छूट देना, बड़े पैमाने पर कंटेंट को मॉडरेट करने का प्रभावी तरीका नहीं है (“सूडान का आपत्तिजनक वीडियो” केस में बोर्ड का फ़ैसला देखें). यह इस तथ्य से पता चलता है कि इसका उपयोग बहुत ही कम किया जाता है. Meta के अनुसार, ख़बरों में रहने लायक होने के कारण 1 जून 2021 से 1 जून 2022 के बीच वैश्विक रूप से सभी पॉलिसी के तहत सिर्फ़ 68 बार छूट दी गई. उनमें से एक छोटा सा भाग ही वयस्क यौन शोषण कम्युनिटी स्टैंडर्ड के संबंध में जारी किया गया था. यह केस बताता है कि ख़बरों में रहने लायक होने के कारण छूट देने के लिए अपनाई जाने वाली आंतरिक प्रोसेस भरोसे लायक नहीं है: कंटेंट को बड़े पैमाने पर रिव्यू करने वाले ऐसे किसी भी ह्यूमन रिव्यूअर द्वारा एस्केलेट नहीं किया गया जिसने कंटेंट का शुरुआती रिव्यू किया था, बल्कि ग्लोबल ऑपरेशन टीम के एक मेंबर ने उसे एस्केलेट किया. Instagram पर कंटेंट को हटाने की जानकारी मिलने के बाद, उन्होंने आंतरिक रिपोर्टिंग चैनल द्वारा इस मुद्दे को फ़्लैग किया. Meta की कंटेंट मॉडरेशन प्रोसेस में, अधिकांश कंटेंट को बड़े पैमाने पर रिव्यू करने वाले रिव्यूअर्स द्वारा रिव्यू किया जाता है, न कि Meta की आंतरिक विशेषज्ञ टीमों द्वारा. कंटेंट को इन आंतरिक विशेषज्ञ टीमों द्वारा तब अतिरिक्त रिव्यू के लिए एस्केलेट किया सकता है जब बड़े पैमाने पर रिव्यू करने वाले रिव्यूअर यह मानें कि ख़बरों में रहने लायक होने के कारण छूट दी जा सकती है – हालाँकि, एस्केलेशन प्रोसेस सिर्फ़ तभी प्रभावी होगी जब बड़े पैमाने पर रिव्यू करने वाले रिव्यूअर्स के पास यह स्पष्ट मार्गदर्शन हो कि कंटेंट को कब एस्केलेट करना है. ख़बरों में रहने लायक होने के कारण दी जाने वाली छूट एक सामान्य अपवाद है जिसे Meta की पॉलिसी का उल्लंघन करने वाले किसी भी कंटेंट पर लागू किया जा सकता है. इसलिए इसमें ख़ास तौर पर वयस्क यौन शोषण पॉलिसी का उल्लंघन करने वाले कंटेंट द्वारा प्रस्तुत नुकसानों का आकलन करने या उन्हें संतुलित करने की शर्तें शामिल नहीं हैं.
पीड़ित और उपेक्षित कम्युनिटी के अधिकारों की सुरक्षा करते हुए अभिव्यक्ति की आज़ादी की रक्षा करने और लोगों को उपेक्षित ग्रुप के यौन उत्पीड़न के खिलाफ़ जागरूकता फैलाने देने का एक ज़्यादा प्रभावी साधन यह होगा कि वयस्क यौन शोषण स्टैंडर्ड में अपवाद “एस्केलेशन के समय” शामिल किया जाए. इसके अलावा, बड़े पैमाने पर रिव्यू करने वाले रिव्यूअर्स को कंटेंट को तब एस्केलेट करने का निर्देश दिया जाना चाहिए जब अपवाद की संभावना हो, न कि उन्हें ख़बरों में रहने लायक होने के कारण बहुत ही कम उपयोग की गई छूट पर निर्भर रहना चाहिए (मिलते-जुलते कारणों के लिए, “सूडान का आपत्तिजनक वीडियो” केस में बोर्ड का फ़ैसला देखें). इसलिए बोर्ड ने यह सुझाव दिया कि बिना सहमति के यौन स्पर्श के चित्रण के लिए वयस्क यौन शोषण पॉलिसी से छूट प्रस्तुत की जानी चाहिए. इससे पॉलिसी का उल्लंघन करने वाले कंटेंट को संदर्भात्मक विश्लेषण के आधार पर Meta के प्लेटफ़ॉर्म पर तब बनाया रखा जा सकेगा जब Meta यह पाए कि कंटेंट को जागरूकता फैलाने के लिए शेयर किया गया है, पीड़ित को पहचाना नहीं जा सकता, कंटेंट में नग्नता शामिल नहीं है, उसे सनसनी फैलाने के संदर्भ में शेयर नहीं किया गया है और इसलिए पीड़ित को नुकसान का जोखिम बहुत कम है. इस अपवाद का उपयोग सिर्फ़ एस्केलेशन के लेवल पर किया जाना चाहिए, अर्थात Meta की विशेषज्ञ आंतरिक टीमों द्वारा. Meta को बड़े पैमाने पर रिव्यू करने वाले रिव्यूअर्स को इस बारे में स्पष्ट मार्गदर्शन भी देना चाहिए कि ऐसे कंटेंट को कब एस्केलेट करना चाहिए जिसपर यह अपवाद लागू होने की संभावना है. यह अपवाद, ख़बरों में रहने लायक होने के कारण छूट देने में बाधा नहीं डालता.
वयस्क यौन शोषण पॉलिसी में अपवाद शामिल करना और बड़े पैमाने पर रिव्यू करने वाले रिव्यूअर्स के लिए मार्गदर्शन अपडेट करने से यह सुनिश्चित होगा कि एस्केलेट होने पर आकलन करना स्टैंडर्ड प्रक्रिया का एक भाग है जिसे बड़े पैमाने पर रिव्यू करने वाले रिव्यूअर्स द्वारा हर प्रासंगिक केस में ट्रिगर किया जा सकता है. बड़े पैमाने पर रिव्यू करने वाले रिव्यूअर्स अभी भी उसे कंटेंट को हटा देंगे जिसमें बिना सहमति के यौन स्पर्श किया जाता है लेकिन उन केसों को एस्केलेट करेंगे जहाँ संभावित रूप से अपवाद लागू हो सकता है. क्षेत्रीय विशेषज्ञता के आधार पर, पॉलिसी और सुरक्षा विशेषज्ञ तब यह तय कर सकते हैं कि क्या अपवाद लागू होगा. अगर ऐसा नहीं होता है, तो वे यह तय कर सकते हैं कि क्या स्ट्राइक लगाई जानी चाहिए और अगर ऐसा किया जाता है, तो कौन सी स्ट्राइक लगाई जानी चाहिए जो उचित और निष्पक्ष तरीके से स्ट्राइक लगाने के Meta के लक्ष्य के अनुसार सही हो. अपवाद का उपयोग करने का अधिकार विशेषज्ञ टीमों को देने से एकरूपता के साथ-साथ संभावित नुकसानों पर पर्याप्त विचार-विमर्श को बढ़ावा मिलेगा.
गैर-भेदभावपूर्ण
यह Meta की ज़िम्मेदारी है कि वह अपने प्लेटफ़ॉर्म पर समानता का सम्मान करे और भेदभाव न होने दे (अनुच्छेद 2 और 26 ICCPR). जातीय भेदभाव उन्मूलन समिति ने अपने सामान्य सुझाव सं. 35 में “जातीय घृणा और भेदभाव का माहौल बनाने में भाषा का योगदान” (पैरा. 5) और नफ़रत फैलाने वाली भाषा से “मानवाधिकार का सामूहिक उल्लंघन” होने की संभावना (पैरा. 3) हाइलाइट की.
बोर्ड ने माना कि उपेक्षित ग्रुप पर हिंसा के खिलाफ़ जागरूकता फैलाने वाले कंटेंट को प्लेटफ़ॉर्म पर बने रहने की परमिशन देने और ऐसे कंटेंट को हटाने के बीच कठिन खींचतान है जिससे उन ग्रुप के किसी व्यक्ति की प्राइवेसी और सुरक्षा को नुकसान होने की आशंका है. बोर्ड मानता है कि Instagram पर किसी व्यक्ति को नुकसान पहुँचने की गंभीर आशंका, उत्पीड़न के खिलाफ़ जागरूकता फैलाने के फ़ायदों को महत्वहीन कर देती है. हालाँकि, इस केस में अधिकांश मेंबर्स ने माना कि चूँकि पीड़ित को पहचाना नहीं जा सकता है और व्यक्तिगत नुकसान का जोखिम कम है, इसलिए कंटेंट को एक चेतावनी स्क्रीन के साथ प्लेटफ़ॉर्म पर बने रहना चाहिए. कुछ मेंबर्स ने माना कि जोखिम उतना भी कम नहीं है कि कंटेंट को हटाया न जाए.
9. ओवरसाइट बोर्ड का फ़ैसला
बोर्ड ने कंटेंट को चेतावनी स्क्रीन के साथ प्लेटफ़ॉर्म पर बनाए रखने के Meta के फ़ैसले को कायम रखा.
10. पॉलिसी से जुड़ी सलाह का कथन
पॉलिसी
1. Meta को बिना सहमति के यौन स्पर्श के चित्रण के लिए वयस्क यौन शोषण पॉलिसी से छूट शामिल करनी चाहिए जब संदर्भात्मक विश्लेषण के आधार पर Meta यह पाए कि कंटेंट को जागरूकता फैलाने के लिए शेयर किया गया है, पीड़ित को पहचाना नहीं जा सकता, कंटेंट में नग्नता शामिल नहीं है, उसे सनसनी फैलाने के संदर्भ में शेयर नहीं किया गया है और इसलिए पीड़ित को नुकसान का जोखिम बहुत कम है. यह अपवाद सिर्फ़ एस्केलेशन के समय उपयोग किया जाना चाहिए. बोर्ड इस सुझाव को तब लागू मानेगा जब वयस्क यौन शोषण कम्युनिटी स्टैंडर्ड की भाषा बदल दी जाए.
एन्फ़ोर्समेंट
2. Meta को बड़े पैमाने पर रिव्यू करने वाले रिव्यूअर्स के लिए अपने आंतरिक मार्गदर्शन को अपडेट करके यह शामिल करना चाहिए कि वयस्क यौन शोषण कम्युनिटी स्टैंडर्ड के तहत रिव्यू किए गए कंटेंट को कब एस्केलेट करना है. इसमें पॉलिसी से उपरोक्त छूट के साथ, बिना सहमति का यौन शोषण दिखाने वाले कंटेंट को एस्केलेट करने का मार्गदर्शन भी शामिल होना चाहिए. बोर्ड इस सुझाव को तब लागू मानेगा जब Meta बड़े पैमाने पर रिव्यू करने वाले रिव्यूअर्स के लिए अपडेट किया गया मार्गदर्शन बोर्ड से शेयर करेगा.
*प्रक्रिया संबंधी नोट:
ओवरसाइट बोर्ड के फ़ैसले पाँच मेंबर्स के पैनल द्वारा लिए जाते हैं और बोर्ड में बहुमत का फ़ैसला मान्य होता है. ज़रूरी नहीं है कि बोर्ड के फ़ैसले, सभी मेंबर्स की निजी राय दर्शाएँ.
इस केस के फ़ैसले के लिए, बोर्ड की ओर से स्वतंत्र रिसर्च करवाई गई थी. बोर्ड की सहायता एक स्वतंत्र शोध संस्थान ने की जिसका मुख्यालय गोथेनबर्ग यूनिवर्सिटी में है और जिसके पास छह महाद्वीपों के 50 से भी ज़्यादा समाजशास्त्रियों की टीम के साथ ही दुनियाभर के देशों के 3,200 से भी ज़्यादा विशेषज्ञ हैं. बोर्ड को Duco Advisers की सहायता भी मिली, जो भौगोलिक-राजनैतिक, विश्वास और सुरक्षा और टेक्नोलॉजी के आपसी संबंध पर काम करने वाली एक एडवाइज़री फ़र्म है.