पलट जाना

स्वीडिश पत्रकार का नाबालिग पर यौन हिंसा की रिपोर्ट करना

ओवरसाइट बोर्ड ने दो नाबालिगों के विरुद्ध यौन हिंसा की घटनाओं के बारे में बताने वाली पोस्ट निकालने के Meta के फ़ैसले को बदल दिया है.

निर्णय का प्रकार

मानक

नीतियां और विषय

विषय
बच्चें / बच्चों के अधिकार, सुरक्षा
सामुदायिक मानक
वयस्क नग्नता और यौन गतिविधि

क्षेत्र/देश

जगह
स्वीडन

प्लैटफ़ॉर्म

प्लैटफ़ॉर्म
Facebook

केस का सारांश

नोट: पढ़ने से पहले कृपया यह जान लें कि नीचे दिए गए फ़ैसले में संभावित तौर पर संवेदनशील सामग्री शामिल है, जो नाबालिगों के विरुद्ध यौन हिंसा से जुड़े कंटेंट से संबंधित है.

ओवरसाइट बोर्ड ने दो नाबालिगों के विरुद्ध यौन हिंसा की घटनाओं के बारे में बताने वाली पोस्ट निकालने के Meta के फ़ैसले को बदल दिया है. बोर्ड ने पाया कि पोस्ट से बाल यौन शोषण, दुर्व्यवहार और नग्नता से जुड़े कम्युनिटी स्टैंडर्ड का उल्लंघन नहीं होता है. पोस्ट के विस्तृत संदर्भ से यह स्पष्ट होता है कि, यूज़र सार्वजनिक हित के मुद्दे की रिपोर्ट कर रहा था और नाबालिग के यौन शोषण की निंदा कर रहा था.

केस की जानकारी

अगस्त 2019 में, स्वीडन के एक यूज़र ने अपने Facebook पेज पर एक युवा लड़की की स्टॉक फ़ोटो पोस्ट की जिसमें वह अपने चेहरे को इस तरीके से हाथ में लेकर नीचे बैठी हुई है जिससे उसका चेहरा अस्पष्ट हो गया है. फ़ोटो का कैप्शन स्वीडिश में है जिसमें दो नाबालिगों के विरुद्ध यौन शोषण की घटनाओं का वर्णन है. पोस्ट में दो अनाम नाबालिगों के साथ बलात्कार का वर्णन है, जिसमें उनकी उम्र और पहले जहाँ अपराध हुआ उस नगर निगम के बारे में बताया गया है. यूज़र ने उन अनाम अपराधियों को उनके अपराधों के लिए मिली सज़ा का विवरण भी दिया है.

पोस्ट में यह तर्क दिया गया है कि स्वीडन की आपराधिक न्याय प्रणाली बहुत ढीली है और वह अपराध को बढ़ावा देती है. यूज़र देश में यौन दुराचार करने वालों का रजिस्टर तैयार करने की वकालत करते हैं. उन्होंने पोस्ट के कमेंट सेक्शन में सोर्स भी दिए हैं, जिनमें कोर्ट की संदर्भ संख्या द्वारा आपराधिक केस के बारे में बताया है और लोकल मीडिया द्वारा अपराधों को उजागर करने के लिंक भी हैं.

पोस्ट में पहले पीड़ित के साथ हुए अपराध के नुकसानदायक प्रभाव का आपत्तिजनक वर्णन दिया गया है. इसमें बलात्कार के बारे में अपने दोस्तों के सामने कथित तौर पर डींगे मारने और नाबालिग को अश्लील शब्दों से पुकारने से जुड़े अपराधी द्वारा कहे गए कथन भी दिए गए हैं. जहाँ कि यूज़र ने Facebook पर अगस्त 2019 में कंटेंट पोस्ट किया था, Meta ने इसे दो साल बाद सितंबर 2021 में बाल यौन शोषण, दुर्व्यवहार और नग्नता से जुड़े अपने नियमों के तहत निकाला.

मुख्य निष्कर्ष

बोर्ड ने पाया कि इस पोस्ट से बाल यौन शोषण, दुर्व्यवहार और नग्नता से जुड़े कम्युनिटी स्टैंडर्ड का उल्लंघन नहीं होता है. इस पोस्ट में बलात्कार के परिणामों का सटीक और चिकित्सकीय वर्णन है, साथ ही अपराधी के यौन स्वरूप के बारे में स्पष्ट कथन हैं, जिनसे यौन शोषित बच्चों से जुड़ी उल्लंघन वाली भाषा नहीं बनती या नाबालिग को “कामुक संदर्भ” में नहीं प्रदर्शित किया गया है.

बोर्ड का यह भी निष्कर्ष है कि पोस्ट में नाबालिग को “कामुक संदर्भ” में प्रदर्शित नहीं किया गया है, जैसा कि पोस्ट के विस्तृत संदर्भ से यह स्पष्ट होता है कि यूज़र सार्वजनिक हित के मुद्दे की रिपोर्ट कर रहा था और नाबालिग के यौन शोषण की निंदा कर रहा था.

बोर्ड ने ध्यान दिया कि Meta ने लोगों को बताए गए अपने कम्युनिटी स्टैंडर्ड में ख़ास शब्दों की परिभाषा नहीं दी है, जैसे “दर्शाना” और “कामुक बनाना”. इसके अलावा, जहाँ Meta ने बोर्ड को बताया कि वह बलात्कार और यौन शोषण की “रिपोर्टिंग” की अनुमति देता है, कंपनी ने यह बात लोगों को उपलब्‍ध कराई गई अपनी पॉलिसी में नहीं बताई है या “दर्शाना” और “रिपोर्टिंग” के बीच का अंतर नहीं बताया है. नीचे दिए गए सुझावों में इन बिंदुओं पर चर्चा की गई है.

यह बात चिंताजनक है कि Meta ने दो साल बाद पोस्ट को प्लेटफ़ॉर्म से निकाल दिया और इसे किस कारण निकाला गया है इसके बारे में पर्याप्त स्पष्टीकरण भी नहीं दिया. पॉलिसी में इस अवधि के दौरान ऐसे कोई बड़े बदलाव नहीं हुए, जिनसे पोस्ट को निकालने का कारण पता चले.

ओवरसाइट बोर्ड का फ़ैसला

ओवरसाइट बोर्ड ने Meta के कंटेंट निकालने के फ़ैसले को बदल दिया और पोस्ट को रीस्टोर करने के लिए कहा.

पॉलिसी से जुड़े सुझाव देते हुए बोर्ड ने कहा कि Meta:

  • बाल यौन शोषण, नग्नता और दुर्व्यवहार से जुड़े कम्युनिटी स्टैंडर्ड में आपत्तिजनक वर्णन और कामुकता की परिभाषा दे. Meta यह बात स्पष्ट करे कि सभी तरह की स्पष्ट भाषा आपत्तिजनक वर्णन या कामुकता वाली नहीं होती और कानूनी, चिकित्सकीय या मेडिकल शब्दों और आपत्तिजनक वर्णन वाले कंटेंट के बीच का अंतर बताए. Meta को बाल यौन शोषण होने और बाल यौन शोषण की रिपोर्टिंग के बीच अंतर के बारे में भी बताना चाहिए. बोर्ड सुझावों का लागू किया गया तब मानेगा, जब ख़ास शब्दों की परिभाषा और अंतर को कम्युनिटी स्टैंडर्ड के वर्णन में जोड़ दिया जाएगा.
  • पॉलिसी तैयार करने की प्रक्रिया हो, जिसमें पॉलिसी फ़ोरम में यह चर्चा शामिल हो कि कम्युनिटी स्टैंडर्ड में यौन हिंसा से पीड़ित बच्चों की काम में आने जैसी पहचान को निषेध किया जाना सम्मिलित किया जाए या नहीं और कैसे किया जाए. इस प्रक्रिया में बच्चों की काम में आने जैसी पहचान और उसके अधिकारों पर स्टेकहोल्डर और विशेषज्ञों की सहभागिता होनी चाहिए. बोर्ड सुझावों को तब लागू मानेगा जब Meta प्रोडक्ट पॉलिसी फ़ोरम के मिनट प्रकाशित करेगा, जहाँ इन सुझावों की चर्चा होती है.

*केस के सारांश से केस का ओवरव्यू पता चलता है और आगे के किसी फ़ैसले के लिए इसको आधार नहीं बनाया जा सकता है.

केस का पूरा फ़ैसला

1. केस का सारांश

ओवरसाइट बोर्ड ने संबंधित कंटेंट को Facebook से हटाने के Meta के फ़ैसले को बदल दिया है. पोस्ट में दो नाबालिगों के बलात्कार की रिपोर्ट की गई है और उत्पीड़न के बारे में बताने के लिए स्पष्ट भाषा का उपयोग हुआ है और उनमें से एक पीड़ित पर पड़े दुष्प्रभाव का वर्णन है. Meta ने पोस्ट को हटाने के लिए बाल यौन शोषण, दुर्व्यवहार और नग्नता से जुड़े कम्युनिटी स्टैंडर्ड को लागू किया है और ओवरसाइट बोर्ड को केस रेफ़र किया. बोर्ड ने पाया कि संबंधित कंटेंट से बाल यौन शोषण को दर्शाने के विरुद्ध बनी पॉलिसी का उल्लंघन नहीं होता है और इसे रीस्टोर किया जाना चाहिए.

2. केस का विवरण

अगस्त 2019 में, स्वीडन के एक यूज़र ने अपने Facebook पेज पर एक युवा लड़की की स्टॉक फ़ोटो पोस्ट की, जिसमें वह अपने चेहरे को इस तरीके से हाथ में लेकर नीचे बैठी हुई है जिससे उसका चेहरा अस्पष्ट हो गया है. इस पोस्ट का कैप्शन स्वीडिश में है, जिसमें आपत्तिजनक भाषा का उपयोग करके दो नाबालिगों के विरुद्ध यौन हिंसा की घटनाओं के बारे में बताया गया है. पोस्ट में दो अनाम नाबालिगों के बलात्कार का वर्णन है, जिसमें उनकी उम्र और पहले जहाँ अपराध हुआ उस नगर निगम के बारे में बताया गया है. यूज़र ने उन अपराधों के लिए दो अनाम अपराधियों को मिली सज़ा का विवरण भी दिया है. उनमें से एक अपराधी को कथित तौर पर गैर-हिरासती सज़ा मिली, क्योंकि वह अपराध करते समय नाबालिग था. दूसरे मामले में अपराधी के बारे में यह रिपोर्ट दी गई थी कि उसने हाल ही में एक अन्य महिला के विरुद्ध हिंसक अपराध करने के लिए हिरासत की सज़ा पूरी की थी. यूज़र ने यह तर्क दिया है कि स्वीडन की आपराधिक न्याय प्रणाली बहुत ढीली है और वह अपराध को बढ़ावा देती है. यूज़र देश में यौन दुराचार करने वालों का रजिस्टर तैयार करने की वकालत करते हैं. यूज़र ने पोस्ट के कमेंट सेक्शन में सोर्स भी दिए हैं, जिनमें कोर्ट की संदर्भ संख्या द्वारा आपराधिक केस के बारे में बताया है और लोकल मीडिया द्वारा अपराधों को उजागर करने के लिंक भी हैं. जब कंटेंट पोस्ट किया गया था, तब स्वीडन में बाल यौन उत्पीड़न के लिए दंड की चर्चाएँ व्यापक आपराधिक न्याय सुधार विमर्श का हिस्सा थीं. यूज़र का Facebook पेज बच्चों के साथ यौन दुराचार करने वालों से जुड़ी पोस्ट के लिए ही है और इसके ज़रिए वे स्वीडन में यौन अपराधों के लिए मौजूदा दंड व्यवस्था में सुधार की अपील कर रहे हैं.

इस पोस्ट में पहले पीड़ित के साथ हुए अपराध के हानिकारक प्रभाव का व्यापक और स्पष्ट विवरण मिलता है, जिसमें उनकी शारीरिक और मानसिक चोटों, उनके साथ हुए ऑफ़लाइन और ऑनलाइन उत्पीड़न के साथ-साथ उन्हें मिली मानसिक सहायता का वर्णन भी है. पोस्ट में बलात्कार के बारे में अपने दोस्तों के सामने कथित तौर पर डींगे मारने और नाबालिग को अश्लील शब्दों से पुकारने से जुड़े अपराधी द्वारा कहे गए कथन भी दिए गए हैं; पोस्ट में बताया गया है कि अपराधी ने अपने दोस्तों से कहा कि “लड़की बहुत ही ‘टाइट’ थी और गर्व से अपने खून भरे हाथों को दिखाया.”

पोस्ट को 20 लाख लोगों ने देखा, 2,000 कमेंट और 20,000 प्रतिक्रियाएँ मिलीं. Meta के अनुसार पोस्ट ऐसे पेज पर शेयर की गई थी जिसकी प्राइवेसी सेटिंग पब्लिक पर सेट थी, जिसका मतलब था कि कोई भी पोस्ट किया गया कंटेंट देख सकता था. पेज के लगभग 100,000 फ़ॉलोअर हैं, जिनमें से 95% स्वीडन में हैं.

इसे अगस्त 2019 में पोस्ट किया गया था, तब से 1 सितंबर 2021 के बीच, आठ लोगों ने संभावित रूप से नफ़रत फैलाने वाली भाषा, हिंसा और उकसावे, और डराने-धमाकाने और उत्पीड़न को फ़्लैग करने के लिए इसके बारे में फ़ीडबैक सबमिट किया है. किसी पोस्ट पर फ़ीडबैक सबमिट करने के लिए और किसी कथित उल्लंघन की रिपोर्ट करने के लिए यूज़र्स के लिए उपलब्ध प्रक्रियाएँ अलग-अलग हैं; यूज़र्स को दोनों विकल्प दिए जाते हैं. फ़ीडबैक से Meta को ऐसे संकेत मिलते हैं जिन्हें समेकित रूप से देखा जाता है और इससे विशिष्ट यूज़र की फ़ीड में कंटेंट को प्राथमिकता देने के तरीके पर प्रभाव पड़ सकता है. जब कोई यूज़र कथित रूप से पॉलिसी के उल्लंघन के रूप में किसी पोस्ट की रिपोर्ट करता है, तो Meta अपनी पॉलिसी के अनुपालन के लिए पोस्ट का आकलन करता है. एक यूज़र ने 5 सितंबर 2019 में धमकी और उत्पीड़न से जुड़ी पॉलिसी के उल्लंघन के रूप में इस पोस्ट की रिपोर्ट की थी, जिसके बाद इसका ऑटोमेटेड रिव्यू करके यह पाया गया कि यह पोस्ट ऐसा कोई उल्लंघन नहीं करती है और इसे प्लेटफ़ॉर्म पर रहने दिया गया था. अगस्त 2021 में, Meta की टेक्नोलॉजी से पता चला कि पोस्ट संभावित रूप से उल्लंघन करने वाली है. ह्यूमन रिव्यू के बाद, यह तय किया गया कि पोस्ट बाल यौन शोषण, दुर्व्यवहार और नग्नता से जुड़ी पॉलिसी का उल्लंघन करती है और इसे हटा दिया गया. कंटेंट क्रिएटर के अकाउंट पर स्ट्राइक लगाई गई जिसकी वजह से दो अलग फ़ीचर सीमाएँ लागू हुईं. एक फ़ीचर सीमा के तहत यूज़र को Facebook पर लाइव जाने, विज्ञापन प्रोडक्ट का उपयोग करने और Messenger रूम बनाने और उनसे जुड़ने से रोका गया. दूसरी के तहत, 30 दिन के लिए फ़ीचर सीमा लागू की गई, जिसमें प्राइवेट मैसेज के अलावा यूज़र को कोई भी नया कंटेंट बनाने से रोका गया. यूज़र द्वारा फ़ैसले के विरुद्ध अपील किए जाने और उसके बाद अतिरिक्त ह्यूमन रिव्यू करने के बाद, पोस्ट को रिस्टोर नहीं किया गया लेकिन पोस्ट हटाने से संबंधित स्ट्राइक को हटा दिया गया. Meta ने स्ट्राइक को हटा दिया क्योंकि कंपनी ने यह निष्कर्ष निकाला कि पोस्ट का उद्देश्य जागरूकता बढ़ाना था. Meta ने अपने ट्रांसपेरेंसी सेंटर में बताया है कि प्लेटफ़ॉर्म स्ट्राइक लगाए या नहीं “यह कंटेंट की गंभीरता, जिस संदर्भ में उसे शेयर किया गया और उसे कब पोस्ट किया गया, इन सब पर निर्भर करता है”. लेकिन सेंटर में यह स्पष्ट रूप से नहीं बताया गया है कि अगर कंटेंट पोस्ट करने का उद्देश्य जागरूकता लाना हो तो स्ट्राइक को हटाया जा सकता है या रोका जा सकता है.

Meta के अनुसार 2021 में, इसने इस पेज से पाँच कंटेंट हटाए. इन सभी को बाल यौन शोषण, दुर्व्यवहार और नग्नता से जुड़ी पॉलिसी के तहत हटाया गया. अतिरिक्त रिव्यू के बाद यह निष्कर्ष निकला कि पोस्ट गलती से हटाई गई थीं और निकाली गई तीन पोस्ट रीस्टोर की गईं. हटाए जाने से संबंधित स्ट्राइक, पोस्ट को रीस्टोर करते समय वापस कर ली गईं.

जब इस पोस्ट को हटाया गया था, तो Meta ने पेज के वितरण को भी कम कर दिया था और इसे सुझावों से हटा दिया था. Meta ने ट्रांसपेरेंसी सेंटर के ज़रिए बताया है कि ऐसे पेज और ग्रुप जो बार-बार उसकी पॉलिसी का उल्लंघन करते हैं, उन्हें सुझावों से हटाया जा सकता है और उनका वितरण कम किया जा सकता है. ट्रांसपेरेंसी सेंटर में यह नहीं बताया गया है कि यह दंड कितने समय तक रहता है. Meta ने बोर्ड को बताया कि किसी पेज को सुझावों से तब हटाया जाता है जब वह स्ट्राइक की सीमा से बाहर हो. स्ट्राइक की सीमा किसी मानक उल्लंघन के लिए तीन स्ट्राइक है और गंभीर उल्लंघन के लिए एक स्ट्राइक (जैसे, बाल यौन शोषण, आत्महत्या और खुद को चोट पहुँचाना या आतंकवाद से जुड़े उल्लंघन).

3. प्राधिकार और दायरा

बोर्ड के पास उन फ़ैसलों को रिव्यू करने का अधिकार है, जिन्हें Meta रिव्यू के लिए सबमिट करता है (चार्टर अनुच्छेद 2, सेक्शन 1; उपनियम अनुच्छेद 2, सेक्शन 2.1.1). बोर्ड Meta के फ़ैसले को कायम रख सकता है या उसे बदल सकता है (चार्टर अनुच्छेद 3, सेक्शन 5) और उसका फ़ैसला कंपनी पर बाध्यकारी होता है (चार्टर अनुच्छेद 4). Meta को मिलते-जुलते संदर्भ वाले समान कंटेंट पर अपने फ़ैसले को लागू करने की संभावना का भी आकलन करना चाहिए (चार्टर अनुच्छेद 4). बोर्ड के फ़ैसलों में गैर-बाध्यकारी सलाहों के साथ पॉलिसी से जुड़े सुझाव हो सकते हैं, जिन पर Meta को जवाब देना होगा (चार्टर अनुच्छेद 3, सेक्शन 4; अनुच्छेद 4).

4. प्रासंगिक स्टैंडर्ड

ओवरसाइट बोर्ड ने इन स्टैंडर्ड पर विचार करते हुए अपना फ़ैसला दिया है:

I. Facebook के कम्युनिटी स्टैंडर्ड

बाल यौन शोषण, दुर्व्यवहार और नग्नता से जुड़ी पॉलिसी के पीछे के कारणों में बताया गया है कि Meta ऐसे कंटेंट की अनुमति नहीं देता है जो “बच्चों का यौन शोषण करे या उनके लिए खतरा पैदा करे.” इस पॉलिसी के तहत, Meta ऐसा कंटेंट, जिसमें “बाल यौन शोषण की धमकी दी गई हो, बाल यौन शोषण दर्शाया हो, उसकी प्रशंसा की गई हो, उसका समर्थन किया गया हो, इससे जुड़े निर्देश दिए हों, इसके इरादे से जुड़े बयान हों, उसमें शामिल होने की बात स्वीकारी हो या उनके लिंक शेयर किए गए हों, जिसमें ये बातें आती हैं, उन्हें हटा देता है.” Meta ऐसे कंटेंट (फ़ोटो, वीडियो, वास्तविक दुनिया की कलाकृति, डिजिटल कंटेंट और शाब्दिक चित्रण सहित) को प्रतिबंधित भी करता है, जो बच्चों को कामुक संदर्भ में दिखाता हो. इस पॉलिसी के तहत बाल यौन शोषण के कथित पीड़ितों की नाम या फ़ोटो के ज़रिए पहचान करने वाला, उनका मज़ाक बनाने वाला कंटेंट भी प्रतिबंधित है, लेकिन किसी नाबालिग की काम में आने जैसी पहचान प्रतिबंधित नहीं है.

II. Meta के मूल्य

Meta के मूल्यों के बारे में Facebook के कम्युनिटी स्टैंडर्ड के परिचय सेक्शन में बताया गया है. “वॉइस” के महत्व को “सर्वोपरि” बताया गया है:

हमारे कम्युनिटी स्टैंडर्ड का लक्ष्य हमेशा एक ऐसा प्लेटफ़ॉर्म बनाना रहा है, जहाँ लोग अपनी बात रख सकें और अपनी भावनाओं को व्यक्त कर सकें. [हम चाहते] हैं कि लोग अपने लिए महत्व रखने वाले मुद्दों पर खुलकर बातें कर सकें, भले ही कुछ लोग उन बातों पर असहमति जताएँ या उन्हें वे बातें आपत्तिजनक लगें.

Meta "वॉइस” को चार अन्य मूल्यों के मामले में सीमित करता है, जिनमें से दो यहाँ प्रासंगिक हैं.

“सुरक्षा”: लोगों को धमकाने वाले कंटेंट से लोगों में डर, अलगाव या चुप रहने की भावना आ सकती है और इसलिए Facebook पर ऐसा कंटेंट पोस्ट करने की अनुमति नहीं है.

“प्राइवेसी”: हम लोगों की प्राइवेसी और निजी जानकारी की सुरक्षा के लिए प्रतिबद्ध हैं. प्राइवेसी होने पर लोग अपने मन की बातें बिना झिझके कर सकते हैं, यह चुन सकते हैं कि उन्हें कोई चीज़ Facebook पर कब और कैसे शेयर करनी है और वे लोगों से और भी आसानी से जुड़ पाते हैं.

“गरिमा”: हमारा मानना है कि सभी लोगों को एक जैसा सम्मान और एक जैसे अधिकार मिलने चाहिए. हम उम्मीद करते है कि लोग एक-दूसरे की गरिमा का ध्यान रखेंगे और दूसरों को परेशान नहीं करेंगे या नीचा नहीं दिखाएँगे.

III. मानवाधिकार के स्टैंडर्ड:

बिज़नेस और मानवाधिकार के बारे में संयुक्त राष्ट्र के मार्गदर्शक सिद्धांत (UNGP), प्राइवेट बिज़नेस की मानवाधिकार से जुड़ी ज़िम्मेदारियों का स्वैच्छिक ढाँचा तैयार करते हैं. 2021 में, Meta ने अपनी मानवाधिकारों से जुड़ी कॉर्पोरेट पॉलिसी की घोषणा की, जिसमें उसने UNGP के अनुसार मानवाधिकारों का ध्यान रखने की अपनी प्रतिज्ञा को दोहराया. इस केस में बोर्ड ने इन मानवाधिकार स्टैंडर्ड को ध्यान में रखते हुए विश्लेषण किया:

  • विचार और अभिव्यक्ति की स्वतंत्रता का अधिकार: अनुच्छेद 19, नागरिक और राजनीतिक अधिकार पर अंतरराष्ट्रीय प्रतिज्ञापत्र ( ICCPR); सामान्य कमेंट संख्या 34, मानवाधिकार समिति 2011; विचार और अभिव्यक्ति की स्वतंत्रता के बारे में संयुक्त राष्ट्र संघ के ख़ास रैपर्टर की रिपोर्ट: A/74/486 (2019); विचार और अभिव्यक्ति की स्वतंत्रता के बारे में संयुक्त राष्ट्र संघ के ख़ास रैपर्टर की रिपोर्ट: A/HRC/17/27 (2011).
  • बच्चे का सबसे बेहतर हित: अनु्च्छेद 3, बाल अधिकारों पर समझौता ( CRC); सामान्य कमेंट सं. 25, बाल अधिकार समिति, 2021
  • शारीरिक और मानसिक स्वास्थ्य का अधिकार: अनुच्छेद 12, आर्थिक, सामाजिक और सांस्कृतिक अधिकारों पर अंतरराष्ट्रीय प्रतिज्ञापत्र ( ICESCR); बच्चों के शारीरिक और मानसिक स्वास्थ्य की बेहतरी के लिए जानकारी पाने और सभी प्रकार की शारीरिक और मानसिक हिंसा से बचाव के लिए बाल अधिकारों पर अनुच्छेद 17 और 19, CRC.
  • गोपनीयता का अधिकार: अनुच्छेद 17, ICCPR; अनुच्छेद 16, CRC; निष्कर्षात्मक विचार, नेपाल, बाल अधिकार समिति, 21 सितंबर 2005, CRC/C/15/Add.261, पैरा. 45, 46.

5. यूज़र का कथन

Meta के रेफ़रल और बोर्ड द्वारा केस स्वीकार करने के फ़ैसले के बाद, यूज़र को बोर्ड के रिव्यू की सूचना का मैसेज भेजा गया और उन्हें बोर्ड के सामने कथन सबमिट करने का मौका दिया गया. यूज़र ने कोई कथन सबमिट नहीं किया.

6. Meta के फ़ैसले का स्पष्टीकरण

Meta ने अपने कारण का स्पष्टीकरण दिया कि कंटेंट को बाल यौन शोषण, दुर्व्यवहार और नग्नता के कम्युनिटी स्टैंडर्ड का उल्लंघन करने की वजह से हटाया गया. Meta ने बताया कि दो लाइनों की वजह से पोस्ट उल्लंघनकारी है, एक जिसमें बलात्कार के बाद शारीरिक प्रभावों का विस्तृत विवरण है और दूसरी जिसमें अपराधी द्वारा नाबालिग का “टाइट” के रूप आपत्तिजनक कामुक वर्णन किया गया है. Meta ने बलात्कार, दुर्व्यवहार और व्यभिचार के नेशनल नेटवर्क (RAINN), यूके की “2021 की बाल यौन दुर्व्यवहार संबंधी स्टैटेजी” और EU की “बाल यौन दुर्व्यवहार के विरुद्ध अधिक प्रभावी लड़ाई के लिए स्ट्रैटेजी,” साथ ही कई अकादमिक लेखों सहित व्यापक सोर्स के विशेषज्ञ निष्कर्षों का संदर्भ दिया, जिससे यह पता चलता है कि बलात्कार के वर्णन से पीड़ित के दोबारा उस त्रासदी से गुज़रने, निजता के हनन और उत्पीड़न का ज़रिया दिए जाने से नुकसान पहुँच सकता है.

Meta ने बताया कि, जहाँ इसकी कुछ पॉलिसी में ऐसे प्रावधान हैं जिनके तहत जागरूकता बढ़ाने या नुकसानदायक कार्यों की निंदा करने के लिए ऐसा कंटेंट शेयर किया जा सकता है, जो अन्य परिस्थिति में उल्लंघन करने वाला माना जाता, लेकिन चुनौती यह है कि “ [दोबारा त्रासदी से गुज़रना] का जोखिम कहाँ शुरू होता है और कहाँ जागरूकता लाने के लाभ खत्म होते हैं, यह [तय करना]”. इस वजह से कंपनी ने आपत्तिजनक वर्णन को निषिद्ध किया, ऐसी जगह भी जहाँ यह सद्भावना के रूप में और जागरूकता लाने के लिए शेयर किया गया हो. Meta ने बोर्ड को अपने दिए गए कारण में बताया कि यह बलात्कार और यौन उत्पीड़न की ऐसी रिपोर्टिंग की अनुमति देता है, जिसमें बहुत स्पष्ट वर्णन न दिया जाए. Meta ने यह भी बताया कि यह “वर्णन” को फ़ोटो, ऑडियो, शाब्दिक वर्णन या ब्रॉडकास्टिंग के रूप में परिभाषित करता है.

Meta ने अपने कारण के बारे में स्पष्टीकरण दिया कि नाबालिगों की "प्राइवेसी", "सुरक्षा" और "गरिमा" के ये मूल्य वॉइस के मूल्य से ज़्यादा महत्व रखते हैं, क्योंकि बहुत स्पष्ट वर्णन वाले कंटेंट से बच्चे दोबारा पीड़ित महसूस कर सकते हैं. Meta ने यह भी बताया कि हालाँकि पोस्ट में पीड़ित का नाम नहीं है, लेकिन पोस्ट में दी गई जानकारी से पीड़ित की पहचान हो सकती है और इससे पीड़ित के साथ भेदभावपूर्ण व्यवहार हो सकता है.

Meta ने बताया कि बाल अधिकारों पर समझौते (CRC) से इसकी पॉलिसी और मूल्यों को तय करने में मार्गदर्शन मिला, बाल अधिकारों पर UN समिति की सामान्य कमेंट संख्या 25 (2021) में कहा गया है कि बच्चों को “डिजिटल दुनिया की जानी-पहचानी और नई तरह की, सभी प्रकार की हिंसा से” बचाने के लिए पॉलिसी और प्रक्रियाएँ लागू की जाएँ. Meta ने बोर्ड को बताया कि बच्चों के दोबारा पीड़ित होने के जोखिम के कारण यह तय किया गया कि पोस्ट को हटाना ज़रूरी था. जहाँ कि Meta स्पष्ट वर्णन वाले कंटेंट पर ख़बरों में रहने लायक अपवाद को लागू करने पर तब विचार करता है, जब अभिव्यक्ति में जन कल्याण ख़ास तौर पर काफ़ी हो और नुकसान का जोखिम कम हो, वहीं इस केस में Meta ने तय किया कि नुकसान का जोखिम अभिव्यक्ति के जन कल्याण वाले मूल्य से ज़्यादा है. Meta के अनुसार, Facebook ने पिछले साल ख़बरों में रहने लायक अपवाद को बाल यौन शोषण से जुड़ी पॉलिसी के उल्लंघन पर छह बार लागू किया है.

7. थर्ड पार्टी सबमिशन

बोर्ड को स्टेकहोल्डर्स से इस केस में 10 पब्लिक कमेंट मिले, जिसमें अकादमिक और नागरिक समाज संगठन भी शामिल हैं, जो ख़ासकर यौन उत्पीड़न के पीड़ितों के अधिकारों, बच्चों के अधिकारों और अभिव्यक्ति पर काम करते हैं. तीन कमेंट यूरोप से थे, दो लैटिन अमेरिका और कैरिबियन से और पाँच संयुक्त राज्य अमेरिका और कनाडा से थे. इन सबमिशन में पीड़ितों की प्राइवेसी की रक्षा करने का महत्व; पीड़ितों की या बाल यौन शोषण और दुर्व्यवहार की रोकथाम को लेकर काम करने वाले संगठनों की आवाज़ दबने का ख़तरा; सनसनीखेज़ पोस्ट को बढ़ावा देने में Meta के प्लेटफ़ॉर्म डिज़ाइन चुनावों की भूमिका; और प्लेटफ़ॉर्म के कंटेंट मॉडरेशन सिस्टम को लेकर बेहतर पारदर्शिता और स्पष्टता की ज़रूरत, ये सभी विषय वस्तु शामिल हैं.

30 नवंबर 2021 को, एक वर्चुअल राउंडटेबल वार्ता हुई जिसमें सात समर्थक ग्रुप और संगठन शामिल थे, जिनका मिशन घरेलू और यौन हिंसा की पीड़ित महिलाओं और बच्चों का प्रतिनिधित्व करना है. चर्चा में केस के कंटेंट से संबंधित कई विषय वस्तुओं पर बात की गई, जिसमें आम जनता किस चीज़ को बलात्कार का आपत्तिजनक वर्णन मान सकती है और बलात्कार और इसके परिणामों का असल चिकित्सकीय वर्णन कैसे अलग होता है; समर्थन या दान इकट्ठा करने के लिए पीड़ित का दोबारा शोषित या पीड़ित होना; पीड़ितों से यह पूछकर उन्हें सशक्त करना कि वे क्या चाहते हैं और उन्हें उनके विरुद्ध हुए अपराध की रिपोर्टिंग करते समय जानकारी देकर सहमति लेना; और पीड़ितों की एजेंसी, ये सबसे महत्वपूर्ण विषय रहेे.

इस केस को लेकर लोगों की ओर से सबमिट किए गए कमेंट देखने के लिए कृपया यहाँ क्लिक करें.

8. ओवरसाइट बोर्ड का विश्लेषण

बोर्ड ने इस सवाल पर ध्यान दिया कि क्या इन तीन नज़रियों से कंटेंट को रीस्टोर कर दिया जाना चाहिए: Facebook कम्युनिटी स्टैंडर्ड; Meta के सार्वजनिक तौर पर बताए गए मूल्य; और मानवाधिकारों से जुड़ी इसकी ज़िम्मेदारियाँ. बोर्ड ने निष्कर्ष निकाला कि कंटेंट Facebook कम्युनिटी स्टैंडर्ड का उल्लंघन नहीं करता और इसे रीस्टोर किया जाना चाहिए. Meta के मूल्य और मानवाधिकारों से जुड़ी ज़िम्मेदारियों के अनुसार भी कंटेंट को रीस्टोर करना सही था. बोर्ड कामुकता, आपत्तिजनक वर्णन और रिपोर्टिंग की स्पष्ट परिभाषा देने के लिए Meta की कंटेंट पॉलिसी में बदलाव करने का सुझाव देता है.

8.1. कम्युनिटी स्टैंडर्ड का अनुपालन

बोर्ड ने निष्कर्ष निकाला कि इस पोस्ट से बाल यौन शोषण, दुर्व्यवहार और नग्नता से जुड़े कम्युनिटी स्टैंडर्ड का उल्लंघन नहीं होता है और कंटेंट को नहीं हटाया जाना चाहिए था. बोर्ड ने निष्कर्ष निकाला कि इस पोस्ट में बलात्कार के परिणामों का सटीक और चिकित्सकीय वर्णन है, साथ ही अपराधी के यौन स्वरूप वाला स्पष्ट कथन है, जिनसे यौन शोषित बच्चों से जुड़ी उल्लंघन वाली भाषा नहीं बनती या नाबालिग को “कामुक संदर्भ” में नहीं प्रदर्शित किया गया है.

बोर्ड का यह भी निष्कर्ष है कि पोस्ट में नाबालिग को “कामुक संदर्भ” में प्रदर्शित नहीं किया गया है क्योंकि पोस्ट के विस्तृत संदर्भ से यह स्पष्ट होता है कि यूज़र सार्वजनिक हित के मुद्दे की रिपोर्ट कर रहा था और नाबालिग के यौन शोषण की निंदा कर रहा था. यूज़र ने इस पोस्ट में संदर्भित बलात्कार के कोर्ट केस में दिए गए साक्ष्य पर रिपोर्टिंग करते समय स्वीडिश न्यूज़ मीडिया आउटलेट द्वारा उपयोग की गई भाषा जैसी ही भाषा का उपयोग किया.

8.2. Meta के मूल्यों का अनुपालन

बोर्ड ने पाया कि इस पोस्ट को हटाने का Meta का फ़ैसला, इसके “वॉइस” के मूल्य के साथ असंगत है. बोर्ड इस बात से सहमत है कि जब ऐसे कंटेंट का मामला हो जिसमें किसी नाबालिग के यौन शोषण का आपत्तिजनक वर्णन हो तो “प्राइवेसी”, “सुरक्षा” और “गरिमा” बहुत ही महत्व रखते हैं. हालाँकि, बोर्ड को समस्या वाले दो वाक्यों के कारण कंटेंट का स्तर ऐसा नहीं लगा जिससे कि बच्चों का यौन शोषण हो. इसके अलावा, इस मुद्दे के बारे में लोगों में जागरुकता लाने का सार्वजनिक हित और लोगों को जानकारी देना, या कानूनी और पॉलिसी सुधार का समर्थन करना, “वॉइस” के मूल्य का मुख्य हिस्सा हैं. इस केस में निहित विभिन्न मूल्यों का आकलन करके, बोर्ड को यह भी लगता है कि बाल यौन शोषण के विरुद्ध समर्थकों और पीड़ितों की आवाज़ को न दबाना महत्वपूर्ण है. बोर्ड यह भी मानता है कि हो सकता है कि कुछ पीड़ित प्लेटफ़ॉर्म पर यौन हमले के आपत्तिजनक वर्णन के वायरल होने के डर से कम बोलें.

8.3. Meta की मानवाधिकारों से जुड़ी ज़िम्मेदारियों का अनुपालन

बोर्ड ने माना कि इस केस में कंटेंट को रीस्टोर करना, Meta की मानवाधिकार ज़िम्मेदारियों से संगत है.

अभिव्यक्ति की स्वतंत्रता और ICCPR का अनुच्छेद 19

ICCPR का अनुच्छेद 19 किसी भी मीडिया के ज़रिए और किसी भी सीमा के बावजूद अभिव्यक्ति की आजादी के लिए अधिक सुरक्षा प्रदान करता है. हालाँकि, इस अधिकार को कुछ सीमित शर्तों के अंतर्गत प्रतिबंधित किया जा सकता है, इन्हें वैधानिकता (स्पष्टता), वैधता और अनिवार्यता तथा समानुपातिकता के तीन-हिस्सों वाला टेस्ट कहते हैं. हालाँकि ICCPR Meta के दायित्व राज्यों के समान तय नहीं करता, लेकिन Meta UNGP में निर्धारित मानवाधिकारों का सम्मान करने के लिए प्रतिबद्ध है. इस प्रतिबद्धता में अन्य कानूनी दस्तावेजों सहित ICCPR और CRC द्वारा तय किए गए अंतररार्ष्ट्रीय रूप से मान्य मानवाधिकार शामिल हैं. विचार और अभिव्यक्ति की स्वतंत्रता पर UN के विशेष प्रतिवेदक में यह सुझाया गया है कि ICCPR का अनुच्छेद 19, पैरा. 3 प्लेटफ़ॉर्म पर कंटेंट मॉडरेशन से जुड़े तरीकों के मार्गदर्शन के लिए उपयोगी संरचना प्रदान करता है ( A/HRC/38/35, पैरा. 6)

I. वैधानिकता (नियमों की स्पष्टता और सुलभता)

अंतरराष्ट्रीय मानवाधिकार कानून में वैधानिकता की शर्त के अनुसार अभिव्यक्ति की स्वतंत्रता पर किसी भी प्रतिबंध: (a) की पहुँच पर्याप्त रूप से आसान हो ताकि लोगों को इस बात का पर्याप्त संकेत मिले कि कानून कैसे उनके अधिकारों को सीमित करता है; और (b) कानून पर्याप्त स्पष्टता के साथ तैयार होना चाहिए ताकि सभी अपने आचरण को नियंत्रित कर सकें.

जैसा कि ऊपर सेक्शन 8.1 में चर्चा की गई है, बोर्ड यह निष्कर्ष निकालता है कि यह पोस्ट Meta की यौन शोषण से जुड़ी पॉलिसी का उल्लंघन नहीं करती, इसलिए इसे हटाना लागू नियम के तहत नहीं था. बोर्ड ने यह भी निष्कर्ष निकाला कि पॉलिसी में ख़ास शब्दों की परिभाषा और जटिल केस के उदाहरण देकर, उसे बेहतर बनाया जा सकता है. “वर्णन” और “कामुकता”, ये शब्द लोगों के लिए उपलब्ध कम्युनिटी स्टैंडर्ड में परिभाषित नहीं हैं. जब Meta ख़ास शब्दों को परिभाषित नहीं करता है या प्रासंगिक अपवाद नहीं बता पाता है, तो यूज़र यह नहीं समझ पाते कि नियमों का पालन कैसे किया जाए.

बोर्ड ने कहा कि Meta के “सामान्य सवाल” और आंतरिक कार्यान्वयन मानक (IIS), जो कंटेंट रिव्यूअर को मार्गदर्शन देते हैं ताकि वे कंटेंट का आकलन करके पता कर सकें कि उससे Facebook कम्युनिटी स्टैंडर्ड का उल्लंघन हो सकता है, उनमें बाल यौन शोषण, दुर्व्यवहार और नग्नता के जुड़ी पॉलिसी के तहत, प्लेटफ़ॉर्म पर नाबालिग को कामुक बनाए जाने के क्या मायने हैं इसके बारे में और सटीक मानदंड होने चाहिए.

Meta ने इस केस को लेकर अपने तर्क के ज़रिए बोर्ड को बताया कि वह बलात्कार और यौन शोषण की “रिपोर्टिंग” की अनुमति देता है, लेकिन उसने यह बात लोगों को उपलब्‍ध कराई गई पॉलिसी में नहीं बताई है या “दर्शाना” और “रिपोर्टिंग” के बीच का अंतर नहीं बताया है. बोर्ड ने पाया कि न तो लोगों के लिए उपलब्ध पॉलिसी में और न ही ज्ञात सवालों व IIS में किसी नाबालिग के प्रतिबंधित आपत्तिजनक वर्णन, या कामुकता तथा किसी नाबालिग के बलात्कार और यौन शोषण से संबंधित गैर-उल्लंघनकारी रिपोर्टिंग के बीच का अंतर बताया गया है.

बोर्ड को यह बात परेशान करने वाली लगी कि केस से जुड़ा कंटेंट दो साल तक प्लेटफ़ॉर्म पर बना रहा और फिर उसे इस बारे में बिना पर्याप्त स्पष्टीकरण दिए हटा दिया गया कि पोस्ट को हटाने के पीछे क्या कारण था. पॉलिसी में इस अवधि के दौरान ऐसे कोई बड़े बदलाव नहीं हुए, जिनसे पोस्ट को निकालने का कारण पता चले. बोर्ड ने पूछा कि क्या क्लासिफ़ायर में हुआ बदलाव कंटेंट को ह्यूमन रिव्यू के लिए भेजने का कारण था. Meta ने बताया कि मशीन लर्निंग/आर्टिफ़िशियल लर्निंग क्लासिफ़ायर स्कोर (एल्गोरिद्म के ज़रिए इस बारे में लगाया जाने वाला अनुमान कि क्या किसी ख़ास कंटेंट की किसी विशेष पॉलिसी का उल्लंघन करने की संभावना है) और दो हफ़्तों की अवधि में पोस्ट को देखे जाने की संख्या के कारण पोस्ट को ह्यूमन रिव्यू के लिए भेजा गया. बोर्ड द्वारा पूछे गए सवालों के जवाब देते समय Meta ने यह नहीं बताया था कि क्या उसके क्लासिफ़ायर में ऐसा कोई बदलाव किया गया था, जिससे यह तय हुआ हो कि संबंधित कंटेंट 2019 में उल्लंघनकारी नहीं था, लेकिन उसकी टेक्नोलॉजी से 2021 में उसी कंटेंट को संभावित तौर पर उल्लंघन करने वाले कंटेंट के रूप में फ्लैग किया जा सकता है और उसे ह्यूमन रिव्यू के लिए भेजने लायक माना.

II. वैधानिक लक्ष्य

अभिव्यक्ति की स्वतंत्रता पर लगने वाले प्रतिबंधों का एक वैधानिक लक्ष्य होना चाहिए, जिनमें दूसरों के अधिकारों की सुरक्षा करना शामिल है. बोर्ड इस बात से सहमत है कि बाल यौन शोषण, दुर्व्यवहार और नग्नता से जुड़े Facebook के कम्युनिटी स्टैंडर्ड का उद्देश्य नाबालिगों के अधिकारों को होने वाले ऑफ़लाइन नुकसान को रोकना है जो Facebook पर मौजूद कंटेंट से संबंधित हो सकता है. इसलिए, इस पॉलिसी में शामिल प्रतिबंधों का उद्देश्य बच्चे के सर्वश्रेष्ठ हितों के अनुरूप (अनुच्छेद 3 CRC) शारीरिक और मानसिक स्वास्थ्य के लिए बच्चों के अधिकारों (अनुच्छेद 12 ICESCR, अनुच्छेद 19 CRC) को सुरक्षित रखने के वैधानिक लक्ष्य की पूर्ति करना है.

III. आवश्यकता और आनुपातिकता

अंतरराष्ट्रीय मानवाधिकार कानून के तहत आवश्यकता और अनुपातिकता के सिद्धांत के अनुसार यह ज़रूरी है कि अभिव्यक्ति की स्वतंत्रता से संबंधित प्रतिबंध "उनके सुरक्षात्मक कार्य को सही तरीके से पूरा करने वाले होने चाहिए; उनसे उन लोगों के अधिकारों के साथ कम से कम हस्तक्षेप होना चाहिए, जिन्हें उन प्रतिबंधों से होने वाले सुरक्षात्मक कार्यों का लाभ मिल सकता है; [और] जिन हितों की सुरक्षा की जानी है, उसके अनुसार ही सही अनुपात में प्रतिबंध लगाए जाने चाहिए" (सामान्य कमेंट 34, पैरा. 34). आनुपातिकता का सिद्धांत विचाराधीन अभिव्यक्ति के स्वरूप पर विचार करने की माँग करता है (सामान्य कमेंट 34, पैरा. 34).

जैसा कि बोर्ड ने 2020-006-FB-FBR केस के फ़ैसले से जुड़े सेक्शन 8.3 में बताया है, Meta को यह साबित करने के लिए तीन चीज़ें दिखानी होंगी कि उसने वैधानिक लक्ष्य को पूरा करने के लिए कम से कम हस्तक्षेप करने वाला कारण चुना है:

(1) बच्चे के सर्वश्रेष्ठ हितों को ऐसे उपायों के ज़रिए पूरा नहीं किया जा सकता, जिनसे आवाज़ उठाने में बाधा नहीं डाली जाती है,

(2) ऐसे उपायों में से, जो आवाज़ उठाने में बाधा डालते हैं, Meta ने सबसे कम हस्तक्षेप वाले उपाय को चुना है, और

(3) चुने गए उपाय से लक्ष्य को हासिल करने में वाकई मदद मिलती है और वह बेअसर या उपाय का विरोधात्मक नहीं है (A/74/486, पैरा. 52).

अभिव्यक्ति की स्वतंत्रता का उल्लंघन नहीं करने वाले उपायों के ज़रिए उद्देश्य पूरे किए जा सकते हैं या नहीं, इस बात का विश्लेषण करने के लिए Meta द्वारा किए गए चयनों की पूरी गुंजाइश और होने वाले नुकसान का समाधान करने के लिए उपलब्ध विकल्पों को समझना ज़रूरी है. इसके लिए ज़रूरी है कि विस्तार करने और इस बारे में बोर्ड के साथ पारदर्शिता रखी जाए कि Meta की प्लेटफ़ॉर्म डिज़ाइन से सनसनीखेज़ कंटेंट को किस तरह बढ़ावा मिल सकता है. बोर्ड ने Meta से इस बारे में जानकारी या आंतरिक शोध से जुड़ा डेटा माँगा कि Facebook प्लेटफ़ॉर्म के लिए उसके डिज़ाइन विकल्पों से बच्चों पर प्रभाव डालने वाले मुद्दों से संबंधित सनसनीखेज़ रिपोर्टिंग को किस तरह बढ़ावा मिलता है, जिसमें उसके ऐसे फ़ैसले या प्रक्रियाएँ शामिल हैं जो विस्तार करने के लिए पोस्ट के चयन को प्रभावित करते हैं. Meta ने बोर्ड को इस सवाल का कोई स्पष्ट जवाब नहीं दिया, न ही इस विषय के बारे में शोध से जुड़ा डेटा उपलब्ध करवाया. Meta के एक्शन की सार्वजनिक जाँच सुनिश्चित करने के लिए पारदर्शिता ज़रूरी है. बोर्ड द्वारा पूछे गए सवाल पर Meta के जवाब में वर्णन के अभाव के कारण या विस्तार करने से संबंधित प्लेटफ़ॉर्म के डिज़ाइन विकल्प अभिव्यक्ति को किस तरह प्रभावित करते हैं, इसकी सार्वजनिक प्रकटीकरण में कमी से बच्चों के सर्वश्रेष्ठ हितों के अनुसार उनके अधिकारों का सम्मान करने के सबसे कम प्रतिबंधात्मक साधन को पूरी तरह निर्धारित करने की बोर्ड की क्षमता में कमी आती है.

बोर्ड इस निष्कर्ष पर पहुँचा है कि, नाबालिगों के विरुद्ध यौन अपराधों, सार्वजनिक हित के मुद्दे और सार्वजनिक बहस के विषय पर चर्चा करने वाले इस कंटेंट को हटाना, बच्चे के अधिकारों को बढ़ावा देने का कम से कम हस्तक्षेप वाला साधन नहीं है. सामान्य कमेंट संख्या 34 ICCPR के अनुच्छेद 19 में राजनीतिक अभिव्यक्ति के महत्व पर प्रकाश डालता है, जिसमें "राजनीतिक बातचीत," "स्वयं के और लोगों से जुड़े मामलों पर कमेंट्री," तथा "मानवाधिकारों की चर्चा" में अभिव्यक्ति की स्वतंत्रता का अधिकार शामिल है. इनमें से सभी में देश की आपराधिक न्याय प्रणाली की चर्चा और ख़ास मामलों में इसके संचालनों की रिपोर्टिंग शामिल होगी.

बोर्ड यह जानता है कि प्लेटफ़ॉर्म पर उत्पीड़न के उस चित्रण के मौजूद होने के कारण बाल यौन शोषण के पीड़ितों को प्लेटफ़ॉर्म के बाहर भी नुकसान पहुँचाया जा सकता है. हालाँकि, बोर्ड ने बच्चे को कामुक स्वरूप में दिखाने वाली अपराधी की भाषा और सार्वजनिक हित के मुद्दे पर जागरूकता लाने के उद्देश्य से अपराधी को कोट करने वाली यूज़र की पोस्ट के बीच का अंतर बताया. बोर्ड यौन शोषण के पीड़ितों के लिए और उनके साथ काम करने वाले संगठनों से मिले इनपुट से सहमत है, जो पीड़ितों के उन बयानों और ऐसे अन्य कंटेंट को सुरक्षित रखने की ज़रूरत पर विचार करने के महत्व से संबंधित है, जिसका उद्देश्य लोगों को सूचित करना है और बच्चों के यौन शोषण को रोकने के लिए कानूनी, सामाजिक और सांस्कृतिक सीमाओं को दुरुस्त करने के समर्थन में शामिल होना है.

बोर्ड ने विचार किया कि क्या चेतावनी स्क्रीन का उपयोग करना, बच्चे के सर्वश्रेष्ठ हितों को सुरक्षित रखने का सबसे कम हस्तक्षेप वाला उपाय हो सकता है. जैसे कि वयस्क यौन शोषण से जुड़े कम्युनिटी स्टैंडर्ड में बताया गया है कि चेतावनी स्क्रीन ऐसे कंटेंट पर लगाई जाती हैं, जिसमें वयस्क यौन शोषण के बारे में ऐसे वर्णन या बयान शामिल होते हैं जो या तो पीड़ित की ओर से शेयर किए जाते हैं या फिर किसी थर्ड पार्टी (पीड़ित के अलावा) की ओर से, 1) पीड़ित के समर्थन में, 2) मामले की निंदा करने के लिए, या 3) सामान्य जागरूकता लाने के लिए शेयर किए जाते हैं, और जिन्हें संदर्भ या कैप्शन से निर्धारित किया जाता है. गलत जानकारी के प्रसार को रोकने के बारे में Meta के न्यूज़रूम पर मौजूद एक ब्लॉग पोस्ट के अनुसार कंपनी ने कहा है कि जब किसी कंटेंट पर चेतावनी स्क्रीन लगाई जाती है तो 95% यूज़र्स उसे देखने के लिए उस पर क्लिक नहीं करते हैं. चूँकि बोर्ड को एंगेजमेंट के बुनियादी स्तर की जानकारी नहीं है, इसलिए बोर्ड ख़ास तौर पर बच्चों के यौन शोषण की रिपोर्ट करने वाले कंटेंट पर लागू होने वाली चेतावनी स्क्रीन के प्रभाव के बारे में किसी निष्कर्ष पर नहीं पहुँच पाया है.

अंत में, बोर्ड ने उस स्थिति में ऑफ़लाइन नुकसान की संभावना पर भी विचार किया है, जब रिपोर्टिंग में बच्चे की पहचान करने के लिए पर्याप्त जानकारी शामिल होती है. ऐसा कंटेंट जिससे बच्चों के यौन शोषण का शिकार हुए नाबालिग की काम में आने जैसी या "अस्पष्ट" पहचान की जा सकती हो, बच्चों के अभिव्यक्ति की स्वतंत्रता के अधिकारों (ICCPR, अनु. 19), प्राइवेसी (CRC, अनुच्छेद 16) और सुरक्षा (CRC, अनुच्छेद 19). काम में आने जैसी पहचान का मतलब है जब कंटेंट में किसी व्यक्ति का नाम लिए बिना उसकी पहचान करने के लिए अलग-अलग जानकारी दी जाती है या जोड़ी जाती है. इस केस में बोर्ड यह तय नहीं कर पाया कि क्या मीडिया रिपोर्ट के लिंक सहित उपलब्ध करवाई गई अलग-अलग जानकारी से इस बात की संभावना बढ़ सकती है कि पीड़ितों की पहचान हो जाएगी.

हालाँकि, बोर्ड के कुछ सदस्यों ने इस बात पर ज़ोर दिया कि जब इस बारे में संदेह हो कि किसी ख़ास कंटेंट से पीड़ित बच्चे की पहचान हो सकती है, तो Meta को अंतरराष्ट्रीय मानवाधिकार सिद्धांतों के अनुसार बच्चे की प्राइवेसी और शारीरिक व मानसिक स्वास्थ्य की रक्षा करने पर ज़्यादा ध्यान देना चाहिए. बोर्ड के इन सदस्यों के लिए, प्लेटफ़ॉर्म की पोस्ट को आगे बढ़ाने की क्षमता यह आकलन करने का एक महत्वपूर्ण कारक है, कि क्या नाबालिग की पहचान हो सकती है और इस तरह से यौन दुर्व्यवहार से पीड़ित बच्चों को सुरक्षा दी जाती है.

बाल यौन शोषण, दुर्व्यवहार और नग्नता से जुड़े मौजूदा कम्युनिटी स्टैंडर्ड में "ऐसे कंटेंट पर रोक लगाई गई है, जो नाम या फ़ोटो के ज़रिए बाल यौन शोषण के शिकार हुए बच्चे की पहचान उजागर करता है या जिसमें उनका मज़ाक उड़ाया जाता है." किसी नाबालिग या अपराध के शिकार हुए व्यक्ति की पहचान करने पर रोक लगाने से जुड़ी अन्य पॉलिसी (जैसे कि नाबालिगों की अतिरिक्त सुरक्षा से जुड़ा कम्युनिटी स्टैंडर्ड;नुकसान पहुँचाने में मदद करना और अपराध को बढ़ावा देना) के कारण यौन शोषण के शिकार होने वाले नाबालिगों की पहचान करने में भारी कमी आती है.

9. ओवरसाइट बोर्ड का फ़ैसला

ओवरसाइट बोर्ड ने Meta के कंटेंट हटाने के फ़ैसले को बदल दिया और पोस्ट को रीस्टोर करने के लिए कहा गया.

10. पॉलिसी से जुड़ी सलाह का कथन

कंटेंट पॉलिसी

  1. Meta को बाल यौन शोषण, नग्नता और दुर्व्यवहार से जुड़े कम्युनिटी स्टैंडर्ड में आपत्तिजनक वर्णन और कामुकता की परिभाषा देनी चाहिए. Meta यह बात स्पष्ट करे कि सभी तरह की स्पष्ट भाषा आपत्तिजनक वर्णन या कामुकता वाली नहीं होती और कानूनी, चिकित्सकीय या मेडिकल शब्दों और आपत्तिजनक वर्णन वाले कंटेंट के बीच का अंतर बताए. Meta को बाल यौन शोषण होने और बाल यौन शोषण की रिपोर्टिंग के बीच अंतर के बारे में भी बताना चाहिए. बोर्ड सुझावों का लागू किया गया तब मानेगा, जब ख़ास शब्दों की परिभाषा और अंतर को कम्युनिटी स्टैंडर्ड के वर्णन में जोड़ दिया जाएगा.
  2. Meta को पॉलिसी तैयार करने की प्रक्रिया पूरी करनी चाहिए, जिसमें पॉलिसी फ़ोरम में यह चर्चा शामिल हो कि उसके कम्युनिटी स्टैंडर्ड में यौन हिंसा से पीड़ित बच्चों की काम में आने जैसी पहचान को निषेध किया जाना चाहिए या नहीं और किस तरह निषेध करना चाहिए. इस प्रक्रिया में बच्चों की काम में आने जैसी पहचान और उसके अधिकारों पर स्टेकहोल्डर और विशेषज्ञों की सहभागिता होनी चाहिए. बोर्ड सुझावों को तब लागू मानेगा जब Meta प्रोडक्ट पॉलिसी फ़ोरम के मिनट प्रकाशित करेगा, जहाँ इन सुझावों की चर्चा होती है.

*प्रक्रिया संबंधी नोट:

ओवरसाइट बोर्ड के फ़ैसले पाँच सदस्यों के पैनल द्वारा लिए जाते हैं और बोर्ड के अधिकांश सदस्य इन पर सहमति देते हैं. ज़रूरी नहीं है कि बोर्ड के फ़ैसले उसके हर एक मेंबर की निजी राय को दर्शाएँ.

इस केस के फ़ैसले के लिए, बोर्ड की ओर से स्वतंत्र शोध को अधिकृत किया गया. एक स्वतंत्र शोध संस्थान जिसका मुख्यालय गोथेनबर्ग यूनिवर्सिटी में है और छह महाद्वीपों के 50 से भी ज़्यादा समाजशास्त्रियों की टीम के साथ ही दुनिया भर के देशों के 3,200 से भी ज़्यादा विशेषज्ञों ने सामाजिक-राजनैतिक और सांस्कृतिक संदर्भ में विशेषज्ञता मुहैया कराई है. Duco Advisors, जो भौगोलिक-राजनैतिक, विश्वास और सुरक्षा तथा टेक्नोलॉजी के आपसी संबंध पर काम करने वाली एक एडवाइज़री फ़र्म है, ने भी रिसर्च डेटा दिया.

मामले के निर्णयों और नीति सलाहकार राय पर लौटें