पलट जाना

पाकिस्तान में बाल दुर्व्यवहार से जुड़ी न्यूज़ डॉक्यूमेंट्री

ओवरसाइट बोर्ड ने Meta के उस फ़ैसले को पलट दिया जिसमें Voice of America (VOA) Urdu द्वारा पोस्ट किए गए एक डॉक्यूमेंट्री वीडियो को हटा दिया गया था. इस वीडियो में 1990 के दशक में पाकिस्तान में यौन उत्पीड़न और हत्या के शिकार बच्चों की पहचान उजागर की गई है. बोर्ड के बहुसंख्य सदस्यों ने यह पाया कि इसे खबरों में रहने लायक होने से जुड़ी छूट दी जानी चाहिए थी.

निर्णय का प्रकार

मानक

नीतियां और विषय

विषय
पत्रकारिता, बच्चें / बच्चों के अधिकार, सुरक्षा
सामुदायिक मानक
बच्चों की नग्नता और उनका यौन शोषण

क्षेत्र/देश

जगह
पाकिस्तान

प्लैटफ़ॉर्म

प्लैटफ़ॉर्म
Facebook

इस फ़ैसले को उर्दू में पढ़ने के लिए, यहाँ क्लिक करें.
م مکمل فیصلہ اردو میں پڑھنے کے لیے، یہاں پر کلک کریں.

सारांश

ओवरसाइट बोर्ड ने Meta के उस फ़ैसले को पलट दिया जिसमें Voice of America (VOA) Urdu द्वारा पोस्ट किए गए एक डॉक्यूमेंट्री वीडियो को हटा दिया गया था. इस वीडियो में 1990 के दशक में पाकिस्तान में यौन उत्पीड़न और हत्या के शिकार बच्चों की पहचान उजागर की गई है. यद्यपि बोर्ड ने पाया कि पोस्ट ने बाल यौन शोषण, दुर्व्यवहार और नग्नता से जुड़े कम्युनिटी स्टैंडर्ड का उल्लंघन किया है, बोर्ड के बहुसंख्य सदस्य यह मानते हैं कि इस केस में खबरों में रहने लायक होने से जुड़ी छूट दी जानी चाहिए थी. बोर्ड के सदस्य यह मानते हैं कि बच्चों से दुर्व्यवहार की रिपोर्टिंग से जुड़ा निरंतर जनहित, पीड़ितों की पहचान उजागर होने के नुकसानों से ज़्यादा महत्वपूर्ण है. इन पीड़ितों ने 25 वर्ष पहले हुए अपराधों में अपनी जान गँवा दी थी. VOA Urdu की यह डॉक्यूमेंट्री व्यापक रूप से तथ्यात्मक और संवेदनशील है और इससे बाल यौन शोषण की व्यापक समस्या पर लोगों की चर्चा में मदद मिल सकती थी. बाल यौन शोषण की समस्या की पाकिस्तान में पर्याप्त रिपोर्टिंग नहीं की जाती. इस केस से यह भी हाइलाइट भी होता है कि Meta, यूज़र्स को बेहतर तरीके से यह कैसे कम्युनिकेट कर सकता है कि किन पॉलिसी को छूट का फ़ायदा मिलता है और किन पॉलिसी को नहीं.

केस की जानकारी

जनवरी 2022 में, ब्रॉडकास्टर Voice of America (VOA) Urdu ने अपने Facebook पेज पर जावेद इकबाल के बारे में 11 मिनट की एक डॉक्यूमेंट्री पोस्ट की. जावेद ने पाकिस्तान में 1990 के दशक में लगभग 100 बच्चों का यौन शोषण करके उनकी हत्या कर दी थी. उर्दू भाषा की इस डॉक्यूमेंट्री में अपराधों और अपराधी के मुकदमे के बारे में परेशान करने वाली जानकारी शामिल है. उसमें न्यूज़पेपर की क्लिप्स की ऐसी फ़ोटोज़ भी हैं जिनमें बाल पीड़ितों की फ़ोटो और उनके नाम स्पष्ट रूप से देखे जा सकते हैं. फ़ुटेज में विलाप कर रहे लोग उनके रिश्तेदार हो सकते हैं. पोस्ट के कैप्शन में कहा गया है कि अपराधों के बारे में एक अलग फ़िल्म हाल ही में समाचारों में रही है और इसमें व्यूअर्स को डॉक्यूमेंट्री के कंटेंट के बारे में चेतावनी भी दी गई है. इस पोस्ट को लगभग 21.8 मिलियन बार देखा गया और लगभग 18,000 बार शेयर किया गया.

जनवरी 2022 और जुलाई 2023 के बीच, 67 यूज़र्स ने इस पोस्ट की रिपोर्ट की. ऑटोमेटेड और ह्यूमन रिव्यू के बाद, Meta इस नतीजे पर पहुँचा की कंटेंट से कोई उल्लंघन नहीं होता. पोस्ट को Meta के हाई रिस्क अर्ली रिव्यू ऑपरेशन सिस्टम द्वारा अलग से भी फ़्लैग किया गया था क्योंकि इसके वायरल होने की संभावना बहुत ज़्यादा थी. इसके परिणामस्वरूप इसका रिव्यू Meta के उस आंतरिक स्टाफ़ द्वारा किया गया जिसके पास भाषा, बाज़ार और पॉलिसी की विशेषज्ञता थी (आउटसोर्स किए गए ह्यूमन मॉडरेशन के बजाय). आंतरिक एस्केलेशन के बाद, Meta की पॉलिसी टीम ने पोस्ट को बनाए रखने के मूल फ़ैसले को पलट दिया और बाल यौन शोषण, दुर्व्यवहार और नग्नता से जुड़ी पॉलिसी का उल्लंघन करने के कारण उसे हटा दिया. कंपनी ने यह तय किया कि वह इस पोस्ट को खबरों में रहने लायक होने से जुड़ी छूट नहीं देगी. Meta ने फिर इस केस को बोर्ड को रेफ़र किया.

मुख्य निष्कर्ष

बोर्ड के बहुसंख्य सदस्यों ने पाया कि Meta को इस कंटेंट को खबरों में रहने लायक होने से जुड़ी छूट देनी चाहिए थी और पोस्ट को Facebook पर बनाए रखना चाहिए था. बोर्ड ने पाया कि पोस्ट से बाल यौन शोषण, दुर्व्यवहार और नग्नता से जुड़े कम्युनिटी स्टैंडर्ड का उल्लंघन होता है क्योंकि दुर्व्यवहार के शिकार बच्चों को उनके चेहरों और नामों से पहचाना जा सकता है. हालाँकि बोर्ड के बहुसंख्य सदस्य यह मानते हैं कि बच्चों से दुर्व्यवहार के अपराधों की रिपोर्टिंग से जुड़ा जनहित, पीड़ितों और उनके परिवारों को हो सकने वाले नुकसानों से ज़्यादा महत्वपूर्ण है. अपने फ़ैसले पर पहुँचते समय, इन बहुसंख्य सदस्यों ने नोट किया कि डॉक्यूमेंट्री को जागरूकता फैलाने के उद्देश्य से बनाया गया था, वह भीषण जानकारी देकर सनसनी नहीं फैलाती और सबसे महत्वपूर्ण बात यह है कि ये अपराध लगभग 25 वर्ष पहले हुए हैं और उनमें से कोई भी पीड़ित अब जीवित नहीं है. इतना समय बीत जाना एक महत्वपूर्ण तथ्य है क्योंकि बाल पीड़ितों को सीधे संभावित नुकसान का जोखिम समाप्त हो चुका है. इस बीच, बाल दुर्व्यवहार का जनहित अभी भी बना हुआ है.

बोर्ड ने जिन विशेषज्ञों से परामर्श किया, उन्होंने कन्फ़र्म किया कि पाकिस्तान में बाल यौन शोषण फैला हुआ है, लेकिन ऐसी घटनाओं की रिपोर्ट नहीं की जाती. बोर्ड के बहुसंख्य सदस्यों ने विशेषज्ञों की इस रिपोर्ट को नोट किया कि पाकिस्तान में स्वतंत्र मीडिया और असंतोष को दबाया जाता रहा है. साथ ही पाकिस्तान बच्चों पर होने वाले गंभीर अपराधों को रोकने या दोषियों को दंड देने में नाकाम भी रहा है. इस कारण यह ज़रूरी हो जाता है कि सोशल मीडिया प्लेटफ़ॉर्म पर इस समस्या की रिपोर्टिंग होने दी जाए और लोगों तक जानकारी पहुँचने दी जाए. इस केस में VOA Urdu की डॉक्यूमेंट्री से सार्वजनिक चर्चाओं में महत्वपूर्ण योगदान मिलता है.

कुछ सदस्यों ने नोट किया कि भले ही वीडियो में जनहित की समस्याओं को उठाया गया है, लेकिन पीड़ितों के नाम और चेहरे दिखाए बिना भी उन समस्याओं की चर्चा की जा सकती थी और इसलिए कंटेंट को हटा दिया जाना चाहिए थानोट.

बोर्ड ने इस बारे में भी अलार्म किया कि इस कंटेंट के बारे में अंतिम फ़ैसला लेने में Meta को लंबा समय (18 माह) लगा. इस दौरान कंटेंट को 21.8 मिलियन बार देखा जा चुका था. साथ ही बोर्ड ने यह भी पूछा कि क्या Meta के पास उर्दू भाषा के वीडियो के लिए पर्याप्त रिसोर्स उपलब्ध हैं.

खबरों में रहने लायक होने के बारे में बहुत कम मामलों में उपयोग की जाने वाली छूट यहाँ प्रासंगिक थी जो एक ऐसा सामान्य अपवाद है जिसे सिर्फ़ Meta की विशेषज्ञ टीमों द्वारा लागू किया जा सकता है. लेकिन बोर्ड ने नोट किया कि जागरूकता फैलाने या रिपोर्ट करने जैसा कोई भी खास पॉलिसी अपवाद, बाल यौन शोषण, दुर्व्यवहार और नग्नता से जुड़ी पॉलिसी के लिए उपलब्ध नहीं है. Meta को अपने यूज़र्स को इस बारे में ज़्यादा स्पष्टता देनी चाहिए.

इसके अलावा, इस पॉलिसी की लोगों को दिखाई देने वाली भाषा में यह ज़्यादा स्पष्ट किया जा सकता है कि कंटेंट में क्या होने पर उसे “नाम या फ़ोटो” द्वारा पीड़ितों की पहचान उजागर करने वाला माना जाएगा. अगर VOA Urdu को उसके द्वारा उल्लंघन किए जाने वाले नियम के बारे में ज़्यादा जानकारी मिलती, तो वह डॉक्यूमेंट्री को आपत्तिजनक फ़ोटो के बिना रीपोस्ट करता या, उदाहरण के लिए, अगर अनुमति होती तो वह पीड़ितों के चेहरों को धुँधला कर देता.

ओवरसाइट बोर्ड का फ़ैसला

ओवरसाइट बोर्ड ने Meta के कंटेंट हटाने के फ़ैसले को पलट दिया है और पोस्ट को रीस्टोर करने के लिए कहा है.

बोर्ड ने Meta को सुझाव दिया है कि वह:

  • हर कम्युनिटी स्टैंडर्ड में एक नया सेक्शन बनाए जिसमें बताया जाए कि कौन-से अपवाद और छूट लागू होती हैं. अगर Meta के पास कुछ ऐसे खास अपवादों की परमिशन न देने के कारण हैं जो अन्य पॉलिसी पर लागू होते हैं (जैसे न्यूज़ रिपोर्टिंग या जागरूकता फैलाना), तो Meta को इस नए सेक्शन में वह कारण शामिल करना चाहिए.

*केस के सारांश से केस का ओवरव्यू मिलता है और आगे के किसी फ़ैसले के लिए इसको आधार नहीं बनाया जा सकता है.

केस का पूरा फ़ैसला

1. फ़ैसले का सारांश

ओवरसाइट बोर्ड ने Meta के उस फ़ैसले को पलट दिया जिसमें Voice of America Urdu के पेज की एक Facebook पोस्ट को हटा दिया गया था. इस पोस्ट में एक डॉक्यूमेंट्री वीडियो था जिसमें 1990 के दशक में पाकिस्तान में यौन उत्पीड़न और हत्या के शिकार बच्चों की पहचान उजागर की गई है.

बोर्ड ने पाया कि पोस्ट से बाल यौन शोषण, दुर्व्यवहार और नग्नता से जुड़े कम्युनिटी स्टैंडर्ड की भाषा का उल्लंघन होता है क्योंकि “इसमें नाम और फ़ोटो के ज़रिए बाल यौन दुर्व्यवहार के शिकार बच्चों की पहचान उजागर की गई है.” हालाँकि, बोर्ड के बहुसंख्य सदस्यों ने पाया कि इस केस में Meta को खबरों में रहने लायक होने की छूट देनी चाहिए थी क्योंकि पाकिस्तान में बच्चों से दुर्व्यवहार के अपराधों की रिपोर्टिंग से जुड़ा जनहित, बहुत पुरानी घटना के पीड़ितों को हो सकने वाले नुकसानों से ज़्यादा महत्वपूर्ण है. बोर्ड के अल्पसंख्य सदस्यों का मानना है कि उन समस्याओं की चर्चा पीड़ितों के नाम और चेहरे दिखाए बिना भी की जा सकती थी, इसलिए पोस्ट को हटाने का Meta का फ़ैसला सही है.

जब जागरूकता फैलाने, न्यूज़ रिपोर्टिंग या अन्य कारणों से पॉलिसी के अपवाद लागू किए जा सकते हों, तब यूज़र्स को इसकी बेहतर सूचना देने के लिए, Meta को हर कम्युनिटी स्टैंडर्ड में एक नया सेक्शन बनाना चाहिए जिसमें यह बताया गया हो कि पॉलिसी में कौन-से अपवाद और छूटें लागू होती हैं और जब ऐसे अपवाद या छूट लागू न हों, तब उनके कारण बताए जाने चाहिए. इस सेक्शन में यह नोट किया जाना चाहिए कि खबरों में रहने लायक होने से जुड़ी छूट जैसी सामान्य छूटें सभी कम्युनिटी स्टैंडर्ड पर लागू होती हैं.

2. केस की जानकारी और बैकग्राउंड

28 जनवरी, 2022 को, अमेरिकी सरकार द्वारा वित्तपोषित ब्रॉडकास्टर Voice of America Urdu ने अपने Facebook पेज पर जावेद इकबाल के बारे में 11 मिनट का एक डॉक्यूमेंट्री वीडियो पोस्ट किया, जिसे पाकिस्तानी अदालत द्वारा बच्चों पर सीरियल अपराध करने का दोषी ठहराया गया था. इस डॉक्यूमेंट्री में उर्दू भाषा में उस व्यक्ति के अपराधों के बारे में विस्तार से बताया गया था, जिसमें 1990 के दशक में लगभग 100 बच्चों के साथ यौन शोषण करना और उनका मर्डर करना शामिल था. इसमें उसके बाद अपराधी की गिरफ़्तारी और मुकदमे के बारे में भी बताया गया था.

वीडियो में 1999 के न्यूज़पेपर्स की क्लिप्स की फ़ोटो भी थीं जिनमें बाल पीड़ितों के नाम, चेहरे और शहरों के नाम भी दिखाए गए थे. इसमें उन बच्चों के फ़ोटोग्राफ़ भी दिखाए गए थे जो अपराधी के घर की तलाशी के दौरान मिले थे. डॉक्यूमेंट्री में घटनाओं की गहन जानकारियाँ दी गई थीं. साथ ही अपराध स्थल से बरामद किए गए सबूतों के बारे में भी बताया गया था जिनमें एसिड के वे कुंड भी शामिल हैं जिनमें शवों को कथित रूप से गलाया जाता था. इसमें विलाप करते लोगों के फ़ुटेज भी थे जो शायद पीड़ित बच्चों के रिश्तेदार थे.

डॉक्यूमेंट्री में यह उल्लेख किया गया था कि जावेद इकबाल ने बच्चों को उसके घर पर लाना कबूल किया था जहाँ उसने बच्चों का यौन शोषण किया, उन्हें मरने तक तड़पाया और उनके शवों को एसिड में गला दिया. इसमें जावेद के युवा साथी के साथ उसकी गिरफ़्तारी, उन पर मुकदमे और मौत की सज़ा और कैद में उनके द्वारा आत्महत्या के बारे में बताया गया है.

पोस्ट के कैप्शन में कहा गया है कि अपराधों के बारे में एक अलग फ़िल्म हाल ही में समाचारों में रही है. कैप्शन में अपराधों की गंभीरता के बारे में भी बताया गया है और चेतावनी दी गई है कि डॉक्यूमेंट्री में यौन शोषण और हिंसा की जानकारियाँ हैं जिनमें अपराधी और उसके अपराधों से जुड़े लोगों के इंटरव्यू शामिल हैं.

Voice of America Urdu के Facebook पेज के लगभग 5 मिलियन फ़ॉलोअर हैं. इस कंटेंट को लगभग 21.8 मिलियन बार देखा गया, इस पर लगभग 51,000 रिएक्शन दिए गए और 5,000 कमेंट किए गए और इसे लगभग 18,000 बार शेयर किया गया. जनवरी 2022 और जुलाई 2023 के बीच, कुल 67 यूज़र्स ने इस कंटेंट की रिपोर्ट की. उस अवधि में ऑटोमेटेड और आउटसोर्स किए गए ह्यूमन रिव्यू के बाद, Meta इस नतीजे पर पहुँचा की कंटेंट से कोई उल्लंघन नहीं होता.

Meta के हाई रिस्क अर्ली रिव्यू ऑपरेशंस (HERO) सिस्टम ने कंटेंट के बहुत ज़्यादा वायरल होने के सिग्नल के कारण जनवरी 2022 और 15 जुलाई, 2023 के बीच उसे आठ बार फ़्लैग किया. HERO सिस्टम को संभावित रूप से उल्लंघन करने वाले कंटेंट को पहचानने के लिए डिज़ाइन किया गया है, जिसके वायरल होने की ज़्यादा संभावना होने का पूर्वानुमान होता है. जब सिस्टम ऐसे कंटेंट को पहचान लेता है, तो इस कंटेंट को Meta के भाषा, मार्केट और पॉलिसी संबंधी विशेषज्ञता वाले आंतरिक स्टाफ़ द्वारा ह्यूमन रिव्यू के लिए प्राथमिकता दी जाती है (न कि उसे कंटेंट का रिव्यू करने वाले आउसोर्स किए गए मॉडरेटर के पास भेजा जाता है).

जुलाई 2023 के आखिरी दिनों में, HERO सिस्टम की एक रिपोर्ट के बाद, Meta के भीतर मौजूद आंतरिक क्षेत्रीय ऑपरेशन टीम ने कंटेंट को Meta के पॉलिसी विशेषज्ञों को यह कहते हुए एस्केलेट किया कि वे खबरों में रहने लायक होने से जुड़ी छूट देने के लिए इसका आकलन करें. अगस्त 2023 में इस रिव्यू के बाद, पॉलिसी टीम ने कंटेंट को बनाए रखने के मूल फ़ैसले को पलट दिया और बाल शोषण, दुर्व्यवहार और नग्नता से जुड़ी पॉलिसी का उल्लंघन करने के कारण उसे हटा दिया. Meta ने इस कंटेंट को खबरों में रहने लायक होने की छूट नहीं दी क्योंकि वह इस निष्कर्ष पर पहुँचा कि नुकसान का संभावित जोखिम, उसकी जनहित वैल्यू से ज़्यादा महत्वपूर्ण है. कंपनी ने इस जोखिम की प्रकृति और दायरा नहीं बताया.

Meta ने वीडियो के जनहित में होने और जागरूकता बढ़ाने वाले संदर्भ के साथ-साथ कंटेंट को पोस्ट किए जाने और हटाए जाने के बीच के लंबे समय (18 माह) के कारण कंटेंट पोस्ट करने वाले समाचार संगठन के अकाउंट पर कोई स्ट्राइक नहीं लगाई.

Meta ने इस केस को बोर्ड को इसलिए रेफ़र किया क्योंकि वह इसे महत्वपूर्ण और मुश्किल मानता है क्योंकि कंपनी को "बाल पीड़ितों की सुरक्षा, प्राइवेसी और गरिमा का इस तथ्य के सामने मूल्यांकन करना है कि फुटेज में बाल पीड़ितों की पहचान पर जोर नहीं दिया गया है, दिखाई गई घटनाएँ 30 साल पहले की हैं और ऐसा लगता है कि वीडियो एक सीरियल किलर के अपराधों के बारे में जागरूकता बढ़ाने और उच्च सार्वजनिक हित वाले मुद्दों पर चर्चा करने के लिए डिज़ाइन किया गया है.”

बोर्ड ने इस केस में अपना फ़ैसला करते समय नीचे दिए संदर्भ पर ध्यान दिया. पाकिस्तान में नागरिकों के लिए उपलब्ध जगह और मीडिया की आज़ादी पर गंभीर प्रतिबंध हैं. संयुक्त राष्ट्र मानवाधिकार विशेषज्ञों और नागरिक समाज संगठनों ने यह हाइलाइट किया है कि पाकिस्तान में मीडिया की आज़ादी को प्रतिबंधित करने का इतिहास रहा है और वहाँ उन लोगों को निशाना बनाया जाता है जो सरकार की आलोचना करते हैं. इसमें उन लोगों को गिरफ़्तार करना और उन पर कानूनी कार्रवाई करना शामिल है.. मीडिया आउटलेट्स के मामलों में हस्तक्षेप किया जा रहा है, उनसे सरकारी विज्ञापन वापस लिए जा रहे हैं, टेलीविज़न प्रस्तोताओं और कंटेंट ब्रॉडकास्ट करने पर बैन लगाया जा रहा है. इसी तरह से, ऑनलाइन कार्यकर्ताओं, असंतुष्टों और पत्रकारों की सरकार की ओर से प्रायोजित धमकियाँ मिलती हैं और उनका उत्पीड़न किया जाता है. स्वतंत्र मीडिया आउटलेट्स ने भी यह डॉक्यूमेंट किया है कि पाकिस्तान सरकार किस तरह कंटेंट को हटाने के लिए सोशल मीडिया कंपनियों से रिक्वेस्ट करती हैं. Meta ने कंपनी के ट्रांसपेरेंसी सेंटर में रिपोर्ट किया है कि जून 2022 और जून 2023 के बीच, कंपनी ने ऐसी 7,665 पोस्ट को जिओ-ब्लॉक किया है जिनकी रिपोर्ट पाकिस्तान के सरकारी अधिकारियों ने Meta से की थी. स्थानीय कानूनों के कथित उल्लंघनों के कारण कंटेंट की स्थानीय एक्सेस प्रतिबंधित की गई थी, भले ही यह ज़रूरी नहीं था कि उन्होंने Meta की पॉलिसीज़ का उल्लंघन किया हो.

स्थानीय पुलिस को कथित रूप से भेजे गए लिखित कबूलनामों के बावजूद, जावेद इकबाल द्वारा किए गए अपराधों की सरकार द्वारा तब तक गंभीर रूप से जाँच नहीं की गई जब तक कि उन पाकिस्तानी पत्रकारों द्वारा खोजबीन के बाद 3 दिसंबर, 1999 को जंग न्यूज़पेपर में इस बारे में एक स्टोरी प्रकाशित नहीं की गई. इस स्टोरी में 57 कथित बाल पीड़ितों के नाम और फ़ोटो थीं जिससे उनके परिवारों को इसकी जानकारी मिली और लोगों में इस मुद्दे को लेकर चर्चाएँ होने लगीं. पाकिस्तान और अंतरराष्ट्रीय स्तर पर इन अपराधों, जावेद इकबाल के कबूलनामे और उसके बाद हुई उसकी गिरफ़्तारी, दोष साबित होने और आत्महत्या को व्यापक और वैश्विक स्तर पर लोगों का कवरेज मिला.

जनवरी 2022 और जनवरी 2024 के बीच, फ़िल्म, डॉक्यूमेंट्री और मीडिया रिपोर्ट ने जावेद इकबाल और उसके अपराधों के बारे में लोगों की दिलचस्पी फिर से जगाई और चर्चाओं का बाज़ार गर्म होने लगा. “Javed Iqbal: The Untold Story of a Serial Killer” एक ऐसी फ़िल्म थी जिसे जनवरी 2022 में रिलीज़ किया जाना था लेकिन पाकिस्तान के सेंट्रल ब्यूरो ऑफ़ फ़िल्म सेंसर्स ने कई महीनों तक उसे बैन करके रखा क्योंकि न्यूज़ रिपोर्ट के अनुसार इसके नाम से इकबाल का महिमामंडन होता है. फ़िल्म को उसी वर्ष बाद में यूके एशियन फ़िल्म फ़ेस्टिवल में रिलीज़ किया गया था. बोर्ड द्वारा परामर्श किए गए विशेषज्ञों और स्वतंत्र मीडिया ने रिपोर्ट किया कि प्रोड्यूसर्स ने पाकिस्तानी सेंसर बोर्ड के फिर से सबमिट करने से पहले फ़िल्म में बदलाव करके उसका नाम “Kukri” (जावेद इकबाल के घर के नाम के आधार पर) कर दिया. फ़िल्म को जून 2023 में मंज़ूरी दी गई और उसे पाकिस्तान में फिर से रिलीज़ किया गया.

पाकिस्तान में बाल यौन शोषण अभी भी बड़ी समस्या हैदुर्व्यवहार. बोर्ड द्वारा परामर्श किए गए विशेषज्ञों के अनुसार, 2020 से 2022 के बीच सोशल मीडिया पर पाकिस्तान में ऑनलाइन बाल शोषण की लगभग 5.4 मिलियन रिपोर्ट्स प्राप्त हुईं. यह आँकड़ा नेशनल सेंटर फ़ॉर मिसिंग एंड एक्सप्लॉइटेड चिल्ड्रन (NCMEC) द्वारा कलेक्ट किए गए डेटा पर आधारित है. NCMEC, अमेरिका में सोशल मीडिया प्लेटफ़ॉर्म के आधार पर बाल यौन शोषण की सामग्री की रिपोर्ट्स कलेक्ट करता है. इन में से 90% रिपोर्ट्स, Meta के प्लेटफ़ॉर्म पर पोस्ट किए गए कंटेंट के बारे में होती हैं. इस्लामाबाद में स्थित एक गैर-सरकारी संगठन साहिल ने बताया है कि 2023 की पहले छह महीनों में पाकिस्तान में हर दिन औसतन 12 बच्चों का यौन शोषण हुआ था. 2023 के 2,200 से ज़्यादा केसों में से 75 प्रतिशत केस, पाकिस्तान के सर्वाधिक आबादी वाले पंजाब प्रांत से रिपोर्ट किए गए थे. अपराधों के दो अन्य घृणित केस कसूर शहर से रिपोर्ट किए गए थे जिनमें 280 बच्चों की एक गैंग ने यौन शोषण किया था और एक छह वर्ष की बच्ची की हत्या और यौन शोषण हुआ था जिसमें मीडिया ने उसके मृत शरीर की फ़ोटो के अलावा अन्य फ़ोटो दिखाई थीं.

3. ओवरसाइट बोर्ड की अथॉरिटी और स्कोप

बोर्ड के पास उन फ़ैसलों को रिव्यू करने का अधिकार है, जिन्हें Meta रिव्यू के लिए सबमिट करता है (चार्टर अनुच्छेद 2, सेक्शन 1; उपनियम अनुच्छेद 2, सेक्शन 2.1.1).

बोर्ड Meta के फ़ैसले को कायम रख सकता है या उसे बदल सकता है (चार्टर अनुच्छेद 3, सेक्शन 5) और उसका फ़ैसला कंपनी पर बाध्यकारी होता है (चार्टर अनुच्छेद 4). Meta को मिलते-जुलते संदर्भ वाले समान कंटेंट पर अपने फ़ैसले को लागू करने की संभावना का भी आकलन करना चाहिए (चार्टर अनुच्छेद 4). बोर्ड के फ़ैसलों में गैर-बाध्यकारी सलाह शामिल हो सकती हैं, जिन पर Meta को जवाब देना ज़रूरी है (चार्टर अनुच्छेद 3, सेक्शन 4; अनुच्छेद 4). जहाँ Meta, सुझावों पर एक्शन लेने की प्रतिबद्धता व्यक्त करता है, वहाँ बोर्ड उनके क्रियान्वयन की निगरानी करता है.

4. अथॉरिटी और मार्गदर्शन के सोर्स

इस केस में बोर्ड ने इन स्टैंडर्ड और पुराने फ़ैसलों को ध्यान में रखते हुए विश्लेषण किया:

I.

II. Meta की कंटेंट पॉलिसीज़

बाल यौन शोषण, दुर्व्यवहार और नग्नता से जुड़ी पॉलिसी बनाने के कारणों में बताया गया है कि Meta ऐसे कंटेंट की अनुमति नहीं देता है जो “बच्चों का यौन शोषण करे या उनके लिए खतरा पैदा करे.” इस पॉलिसी के तहत, Meta “ऐसे कंटेंट को हटा देता है जिसमें नाम या फ़ोटो के ज़रिए बाल यौन शोषण के कथित पीड़ितों की पहचान उजागर की जाती है या उनका मज़ाक बनाया जाता है.”

बोर्ड का विश्लेषण, Meta की अभिव्यक्ति की प्रतिबद्धता, जिसे कंपनी “सर्वोपरि” बताती है, और सुरक्षा, प्राइवेसी और गरिमा की उसकी वैल्यू के आधार पर किया गया है.

खबरों में रहने लायक होने की छूट

Meta, खबरों में रहने लायक होने की छूट को सामान्य पॉलिसी की एक छूट के रूप में परिभाषित करता है जिसे कम्युनिटी स्टैंडर्ड के सभी पॉलिसी क्षेत्रों में लागू किया जा सकता है जिसमें बाल यौन शोषण, दुर्व्यवहार और नग्नता से जुड़ी पॉलिसी शामिल है. इसमें अन्यथा उल्लंघन करने वाले कंटेंट को उस स्थिति में प्लेटफ़ॉर्म पर बने रहने की परमिशन दी जाती है जब उसकी जनहित वैल्यू, नुकसान के जोखिम से ज़्यादा हो. Meta के अनुसार, ऐसे आकलन सिर्फ़ “दुर्लभ मामलों” में ही किए जाते हैं और कंटेंट पॉलिसी टीम को एस्केलेट किए जाने पर ही लागू किए जाते हैं. यह टीम इस बात का आकलन करती है कि क्या विचाराधीन कंटेंट से लोगों के स्वास्थ्य या सुरक्षा को तात्कालिक खतरा है या क्या उससे राजनीतिक प्रक्रिया के भाग के रूप में फ़िलहाल बहस का विषय बने हुए दृष्टिकोण ज़ाहिर किए जा सकते हैं. इस आकलन में देश विशिष्ट परिस्थितियों पर विचार किया जाता है जिसमें यह भी शामिल है कि क्या देश में चुनाव चल रहा है. वक्ता की पहचान, विचार का एक प्रासंगिक बिंदु है, लेकिन यह छूट सिर्फ़ उस कंटेंट को नहीं दी जाती जिसे न्यूज़ आउटलेट द्वारा पोस्ट किया गया है.

Meta ने रिपोर्ट किया कि 1 जून, 2022 से 1 जून, 2023 के बीच, पूरी दुनिया में सिर्फ़ 69 मामलों में खबरों में रहने से जुड़ी छूट दी गई थी. उसके पहले के वर्ष में भी ऐसे ही आँकड़े रिपोर्ट किए गए थे.

III. Meta की मानवाधिकारों से जुड़ी ज़िम्मेदारियाँ

बिज़नेस और मानवाधिकारों के बारे में संयुक्त राष्ट्र संघ के मार्गदर्शक सिद्धांत (UNGP), जिन्हें 2011 में संयुक्त राष्ट्र संघ की मानवाधिकार समिति ने स्वीकृति दी है, प्राइवेट बिज़नेस की मानवाधिकार से जुड़ी ज़िम्मेदारियों का स्वैच्छिक ढाँचा तैयार करते हैं. 2021 में Meta ने मानवाधिकारों से जुड़ी अपनी कॉर्पोरेट पॉलिसी की घोषणा की, जिसमें उसने UNGP के अनुसार मानवाधिकारों का ध्यान रखने की अपनी प्रतिबद्धता दोहराई. इस केस में Meta की मानवाधिकार से जुड़ी ज़िम्मेदारियों के बोर्ड द्वारा विश्लेषण में नीचे दिए गए अंतरराष्ट्रीय स्टैंडर्ड प्रासंगिक हो सकते हैं:

  • अभिव्यक्ति की आज़ादी के अधिकार: अनुच्छेद 19, नागरिक और राजनीतिक अधिकारों पर अंतरराष्ट्रीय प्रतिज्ञापत्र ( ICCPR); सामान्य कमेंट सं. 34, मानवाधिकार समिति (2011); राय और अभिव्यक्ति की आज़ादी पर संयुक्त राष्ट्र के विशेष रैपर्टर की रिपोर्ट, A/74/486 (2019); A/HRC/38/35 (2018); A/69/335 (2014) और A/HRC/17/27 (2011).
  • बच्चे का सबसे बेहतर हित: अनुच्छेद 3, बाल अधिकारों पर समझौता (UNCRC); सामान्य कमेंट सं. 25, बाल अधिकार समिति (2021). इसके अलावा, अनुच्छेद 17, UNCRC, में मास मीडिया द्वारा किए जाने वाले उस महत्वपूर्ण काम को मान्यता दी गई है जो वह बच्चों के शारीरिक या मानसिक स्वास्थ्य को बढ़ावा देने के लिए जानकारी की एक्सेस के बच्चों के अधिकार देने के लिए करता है.
  • प्राइवेसी का अधिकार: अनुच्छेद 17, ICCPR; अनुच्छेद 16, UNCRC.

5. यूज़र सबमिशन

पोस्ट के लेखक को बोर्ड के रिव्यू के बारे में सूचित किया गया और उसे कथन सबमिट करने का अवसर दिया गया. लेखक से कोई जवाब नहीं मिला.

6. Meta के सबमिशन

Meta के अनुसार, पोस्ट से बाल यौन शोषण, दुर्व्यवहार और नग्नता से जुड़े कम्युनिटी स्टैंडर्ड का उल्लंघन होता है क्योंकि उसमें यौन शोषण के बाल शिकारों के पहचाने जाने लायक चेहरे और नाम दिखाए गए हैं. Meta किसी व्यक्ति को नाम या फ़ोटो के ज़रिए तब पहचाने जाने लायक मानता है जब “कंटेंट में इनमें से कोई भी जानकारी शामिल हो: (i) व्यक्ति का नाम (नाम, मध्य नाम, उपनाम या पूरा नाम), अगर कंटेंट में यह स्पष्ट रूप से न कहा गया हो कि नाम काल्पनिक है [या] (ii) व्यक्ति का चेहरा दिखाने वाली इमेजरी.”

Meta, यौन शोषण के वयस्क पीड़ितों को बाल पीड़ितों से अलग करता है क्योंकि बच्चों के पास पहचान के बारे में सूचित सहमति देने की “सीमित क्षमता” होती है. इसे देखते हुए, उन्हें फिर से शिकार बनाए जाने, उनसे कम्युनिटी भेदभाव होने और उनके साथ आगे भी हिंसा होने का जोखिम गंभीर होता है. Meta इसलिए बाल शोषण, दुर्व्यवहार और नग्नता से जुड़ी पॉलिसी के तहत ऐसे कंटेंट के लिए कोई अपवाद नहीं देता जिसमें नाम या फ़ोटो के ज़रिए यौन शोषण के कथित शिकारों की पहचान उजागर की गई हो, उन्हें जागरूकता फैलाने के लिए शेयर किया गया हो या वह दुर्व्यवहार की निंदा करता हो.

बाल अधिकारों के समर्थकों ने इस बात पर ज़ोर दिया है कि Meta को अपनी पॉलिसीज़ में बच्चों की सुरक्षा को प्राथमिकता देनी चाहिए, खास तौर पर उन केसों में जिनमें बच्चों पर यौन हमला हुआ हो. अन्य बाहरी स्टेकहोल्डर्स ने Meta को नोट किया कि नाबालिगों को शिकार बनाए जाने से जुड़े लक्ष्य को बाल पीड़ितों की पहचान के खबरों में रहने लायक होने से ज़्यादा महत्वपूर्ण माना जाना चाहिए.

बोर्ड ने Meta से कहा कि वे इस केस में कंटेंट को खबरों में रहने लायक होने से जुड़ी छूट न देने के अपने फ़ैसले को स्टडी करे. Meta ने नोट किया कि भले ही कंटेंट से जनहित वैल्यू जुड़ी थी, लेकिन पीड़ितों की पहचान उजागर होने से जुड़ा जोखिम तब भी महत्वपूर्ण था. भले ही ये अपराध 1990 के दशक में हुए हों, पहचाने गए शिकार बच्चे थे और उनके साथ हुए दुर्व्यवहार की प्रकृति हिंसक और यौन थी.

इस केस में, Meta ने वीडियो के सार्वजनिक हित और जागरूकता बढ़ाने वाले संदर्भ और पोस्ट किए जाने वाले और हटाए जाने वाले कंटेंट के बीच की महत्वपूर्ण अवधि के कारण कंटेंट पोस्ट करने वाले समाचार संगठन के अकाउंट के खिलाफ़ कोई शिकायत नहीं की.

बोर्ड के सवालों के जवाब में, Meta ने नोट किया कि इससे पहले कि कंटेंट वायरल होने के चरम पर पहुँच जाए, कंपनी कंटेंट को पहचानने के अलग-अलग संकेतों का उपयोग करके उसे पहले ही फ़्लैग करने के लिए अपने HERO सिस्टम का उपयोग करती है. यह सिस्टम ऐसे कंटेंट को रिव्यू और संभावित कार्रवाई के लिए प्राथमिकता देती है जिसके वायरल होने की संभावना होती है और यह उन कई टूल्स में से एक है जिसका उपयोग प्लेटफ़ॉर्म पर समस्याप्रद वायरल कंटेंट का समाधान करने के लिए किया जाता है.

बोर्ड ने Meta से 15 लिखित सवाल पूछे. ये सवाल बाल यौन शोषण, दुर्व्यवहार और नग्नता से जुड़ी पॉलिसी के बारे में Meta के पॉलिसी चुनावों, Meta के स्ट्राइक सिस्टम और HERO सिस्टम से जुड़े थे. Meta ने 15 सवालों के जवाब दिए.

7. पब्लिक कमेंट

ओवरसाइट बोर्ड को चार ऐसे पब्लिक कमेंट मिले जो सबमिशन की शर्तें पूरी करते हैं. दो कमेंट अमेरिका और कनाडा से, एक कमेंट यूरोप से और एक एशिया पैसिफ़िक और ओशियानिया से सबमिट किया गया था. प्रकाशन की सहमति के साथ सबमिट किए गए पब्लिक कमेंट पढ़ने के लिए, कृपया यहाँ पर क्लिक करें.

सबमिशन में इन विषयों पर बात की गई थी: बाल दुर्व्यवहार के शिकारों की प्राइवेसी और पहचान के साथ-साथ परिवारों की प्राइवेसी की रक्षा करने की महत्ता; बच्चों के अधिकारों पर संयुक्त राष्ट्र के समझौते और बच्चों के यौन शोषण, दुर्व्यवहार और नग्नता से जुड़ी Meta की पॉलिसी के बीच परस्पर संबंध; डॉक्यूमेंट्री का शैक्षणिक और जागरूकता फैलाने वाला संदर्भ; और बाल दुर्व्यवहार से जुड़े अपराधों की रिपोर्टिंग में पत्रकारों की भूमिका.

8. ओवरसाइट बोर्ड का विश्लेषण

बोर्ड ने Meta के इस रेफ़रल को बाल पीड़ितों के अधिकारों पर Meta के बाल यौन शोषण, दुर्व्यवहार और नग्नता से जुड़े कम्युनिटी स्टैंडर्ड के प्रभाव का आकलन करने के लिए स्वीकार किया, खास तौर पर अपराधों की रिपोर्टिंग के संदर्भ में जब उन्हें हुए बहुत ज़्यादा समय बीत चुका हो. यह केस, नागरिक स्थानों की रक्षा से जुड़ा है, जो बोर्ड की स्ट्रेटेजिक प्राथमिकताओं में से एक है. बोर्ड ने इस बात का परीक्षण किया कि क्या Meta की कंटेंट पॉलिसी, मानवाधिकार ज़िम्मेदारियों और वैल्यू का विश्लेषण करके इस कंटेंट को रीस्टोर कर दिया जाना चाहिए.

8.1 Meta की कंटेंट पॉलिसी का अनुपालन

बोर्ड इस बात पर Meta से सहमत है कि इस केस के कंटेंट से बाल यौन शोषण, दुर्व्यवहार और नग्नता से जुड़े कम्युनिटी स्टैंडर्ड का उल्लंघन हुआ है, क्योंकि वीडियो में बाल दुर्व्यवहार पीड़ितों के पहचाने जाने लायक चेहरे और नाम दिखाए गए हैं.

हालाँकि बोर्ड के बहुसंख्य सदस्यों ने पाया कि एस्केलेशन के बाद Meta को इस कंटेंट को खबरों में रहने लायक होने से जुड़ी छूट देनी चाहिए थी और पोस्ट को Facebook पर बनाए रखना चाहिए था. बोर्ड के बहुसंख्य सदस्यों के लिए बच्चों से दुर्व्यवहार के इस केस के लक्षणों जैसे अपराधों की रिपोर्टिंग से जुड़ा जनहित, पीड़ितों और उनके परिवारों को हो सकने वाले नुकसानों से ज़्यादा महत्वपूर्ण है. यह निष्कर्ष मुख्य रूप से इस तथ्य पर आधारित है कि इस डॉक्यूमेंट्री को जागरूकता फैलाने के उद्देश्य से बनाया गया है, इसमें जो भीषण जानकारी दी गई है, यह उसका मज़ाक नहीं बनाती या उसके बारे में सनसनी नहीं फैलाती और सबसे खास बात यह है कि ये अपराध लगभग 25 वर्ष पहले हुए हैं और उनमें से कोई भी पीड़ित अब जीवित नहीं है.

बहुसंख्य सदस्यों के लिए, घटना के बाद लंबे समय का बीत जाना, इस केस का सबसे महत्वपूर्ण बिंदु है. लंबा समय बीत जाने के बाद, बच्चों के अधिकारों और उनके परिवारों पर संभावित रूप से असर कम हो सकता है, जबकि पाकिस्तान में बच्चों के साथ दुर्व्यवहार की रिपोर्टिंग और उसके समाधान का जनहित लगातार कायम है. इस केस में, इन बच्चों के साथ ये अपराध 25 से ज़्यादा वर्ष पहले हुए थे और डॉक्यूमेंट्री में दिखाए गए सभी पहचाने जाने लायक पीड़ित बच्चे अब दुनिया में मौजूद नहीं हैं.

पाकिस्तान में बाल दुर्व्यवहार अभी भी व्यापक रूप से फैला हुआ है (सेक्शन 2 देखें) और उस पर सार्वजनिक रूप से काफी चर्चा की जाती है. बोर्ड के बहुसंख्य सदस्यों ने विशेषज्ञों की इस रिपोर्ट को नोट किया कि पाकिस्तान में स्वतंत्र मीडिया और असंतोष को दबाया जाता रहा है. साथ ही पाकिस्तान बच्चों पर होने वाले गंभीर अपराधों को रोकने या दोषियों को दंड देने में नाकाम भी रहा है. इसलिए, सोशल मीडिया प्लेटफ़ॉर्म न्यूज़ मीडिया सहित सभी लोगों के लिए ज़रूरी हैं ताकि वे पाकिस्तान में बाल दुर्व्यवहार के बारे में रिपोर्ट कर सकें और उनसे जुड़ी जानकारी पा सकें. यह डॉक्यूमेंट्री व्यापक रूप से सटीक और तथ्यात्मक थी और पीड़ितों के लिए संवेदनशील थी. इसमें खास तौर पर इस विषय पर बनी एक फ़िल्म को सेंसर करने के हाल ही के सरकार का फ़ैसले का संदर्भ दिया गया है और इसलिए इससे लोगों की चर्चा में महत्वपूर्ण योगदान मिलता है.

बोर्ड के अल्पसंख्य सदस्यों ने कहा कि Meta को इस केस में खबरों में रहने से जुड़ी छूट नहीं देनी चाहिए. उन्होंने यह हाइलाइट किया कि बाल पीड़ितों के साथ-साथ उनके परिवारों की गरिमा की रक्षा सर्वोपरि है और समय बीतने या बहुसंख्य सदस्यों द्वारा हाइलाइट किए गए अन्य बिंदुओं के कारण उस पर कोई प्रभाव नहीं पड़ना चाहिए. कुछ सदस्यों ने नोट किया कि भले ही वीडियो में जनहित की समस्याओं को उठाया गया है, लेकिन पीड़ितों के नाम और चेहरे दिखाए बिना भी उन समस्याओं की चर्चा की जा सकती थी. इसलिए, पोस्ट को हटाना, प्राइवेसी और गरिमा की Meta की वैल्यू के अनुरूप था.

खबरों में रहने लायक होने से जुड़ा आकलन करते समय, बोर्ड ने यह नोट किया कि Meta को इस बात पर अनिवार्य रूप से विचार करना चाहिए कि किसी पोस्ट को बनाए रखने या हटाने के फ़ैसले के मानवाधिकारों पर संभावित रूप से क्या बुरे प्रभाव होंगे. सोच-विचार से जुड़ी इन बातों को अगले सेक्शन में बताया गया है.

8.2 Meta की मानवाधिकारों से जुड़ी ज़िम्मेदारियों का अनुपालन

बोर्ड के अधिकांश सदस्यों ने पाया कि इस पोस्ट को हटाना आवश्यक और आनुपातिक नहीं था और पोस्ट को Facebook पर रीस्टोर करना Meta की मानवाधिकार से जुड़ी ज़िम्मेदारियों के अनुसार सही है.

अभिव्यक्ति की आज़ादी (अनुच्छेद 19 ICCPR)

ICCPR का अनुच्छेद 19, पैरा. 2, राजनैतिक बातचीत और पत्रकारिता को व्यापक सुरक्षा प्रदान करता है (सामान्य कमेंट सं. 34, (2011), पैरा. 11). अभिव्यक्ति की आज़ादी पर संयुक्त राष्ट्र के विशेष रैपर्टर में कहा गया है कि देश, मीडिया संगठनों को खुद को इस तरह रेगुलेट करने के लिए प्रोत्साहित कर सकते हैं कि वे अपनी रिपोर्ट में बच्चों को किस तरह कवर और शामिल करेंगे. इंटरनेशनल फ़ाउंडेशन ऑफ़ जर्नलिस्ट्स की ड्राफ़्ट गाइडलाइन और सिद्धांतों के एक सेट का उल्लेख करते हुए, संयुक्त राष्ट्र के विशेष रैपर्टर में नोट किया गया है कि उनमें “बच्चों से जुड़ी स्टोरीज़ की स्टीरियोटाइप और सनसनीखेज़ प्रस्तुति से बचने के प्रावधान” शामिल हैं, (A/69/335, पैरा. 63).

जहाँ राज्य, अभिव्यक्ति पर प्रतिबंध लगाता है, वहाँ प्रतिबंधों को वैधानिकता, वैधानिक लक्ष्य और आवश्यकता तथा आनुपातिकता की शर्तों को पूरा करना चाहिए (अनुच्छेद 19, पैरा. 3, ICCPR). इन आवश्यकताओं को अक्सर “तीन भागों वाला परीक्षण” कहा जाता है. Meta की स्वैच्छिक मानवाधिकार प्रतिबद्धताओं को समझने के लिए बोर्ड इस फ़्रेमवर्क का उपयोग करता है - रिव्यू में मौजूद कंटेंट से जुड़े व्यक्तिगत फ़ैसले के लिए और यह जानने के लिए कि कंटेंट गवर्नेंस के प्रति Meta के व्यापक नज़रिए के बारे में यह क्या कहता है. जैसा कि अभिव्यक्ति की आज़ादी के बारे में संयुक्त राष्ट्र के खास रैपर्टर में कहा गया है कि भले ही “कंपनियों का सरकारों के प्रति दायित्व नहीं है, लेकिन उनका प्रभाव इस तरह का है जो उनके लिए अपने यूज़र की सुरक्षा के बारे में इस तरह के सवालों का मूल्यांकन करना ज़रूरी बनाता है” (A/74/486, पैरा. 41).

I. वैधानिकता (नियमों की स्पष्टता और सुलभता)

अंतरराष्ट्रीय मानवाधिकार कानून के तहत वैधानिकता के सिद्धांत के अनुसार अभिव्यक्ति पर रोक लगाने वाले नियम स्पष्ट और सार्वजनिक रूप से उपलब्ध होने चाहिए (सामान्य कमेंट सं. 34, पैरा. 25). अभिव्यक्ति पर प्रतिबंध का निर्माण पर्याप्त सटीकता से किया जाना चाहिए ताकि लोग अपने व्यवहार को उसके अनुसार बदल सकें (पूर्वोक्त). जैसा कि Meta पर लागू होता है, कंपनी को यूज़र्स को इस बारे में मार्गदर्शन देना चाहिए कि प्लेटफ़ॉर्म पर किस कंटेंट की परमिशन है और किस कंटेंट की परमिशन नहीं है. इसके अलावा, अभिव्यक्ति को प्रतिबंधित करने वाले नियम “उन लोगों को प्रतिबंधित करने के निरंकुश अधिकार नहीं दे सकते जिन पर इन्हें लागू करने की ज़िम्मेदारी है” और नियमों में "उन लोगों के लिए पर्याप्त मार्गदर्शन भी होना ज़रूरी है जिन पर इन्हें लागू करने की ज़िम्मेदारी है ताकि वे यह पता लगा सकें कि किस तरह की अभिव्यक्ति को उचित रूप से प्रतिबंधित किया गया है और किसे नहीं,” (A/HRC/38/35, पैरा. 46).

बोर्ड ने पाया कि बाल यौन शोषण, दुर्व्यवहार और नग्नता से जुड़ी पॉलिसी, जैसी की इस केस में लागू की गई है, वैधानिकता संबंधी ज़रूरतों की पूर्ति के लिए पर्याप्त रूप से स्पष्ट है लेकिन उसमें सुधार किए जा सकते हैं.

सभी अन्य यूज़र्स की तरह पत्रकारों को इस बात का पर्याप्त मार्गदर्शन दिया जाना चाहिए कि सोशल मीडिया प्लेटफ़ॉर्म पर नियमों के तहत चुनौतीपूर्ण विषयों के बारे में किस तरह बात की जानी चाहिए. लोगों के लिए यह ज़्यादा स्पष्ट बनाया जा सकता है कि जिन फ़ोटो में बाल पीड़ितों के चेहरे या नाम दिखाई देते हों, उन्हें बाल दुर्व्यवहार से जुड़े मुद्दों की चर्चा में उपयोग किए जाने की परमिशन नहीं है. नाम या फ़ोटो के ज़रिए पहचान के बारे में ज़्यादा विस्तृत परिभाषाएँ आंतरिक गाइडलाइन में शामिल की गई हैं, जो सिर्फ़ Meta के कंटेंट रिव्यूअर्स के लिए उपलब्ध हैं. बोर्ड ने Meta से कहा कि वह इस बारे में ज़्यादा स्पष्टता दे कि “नाम या फ़ोटो” द्वारा कथित पीड़ितों की पहचान में सटीक रूप से क्या आता है. इसमें यह भी बताए कि क्या “नाम” में आंशिक नाम भी आता है और क्या “फ़ोटो” का अर्थ सिर्फ़ चेहरे दिखाना है और/या क्या उसमें चेहरों को धुँधला करने की परमिशन है.

बोर्ड ने यह नोट किया कि Meta ने इस क्षेत्र में पॉलिसी से जुड़े बदलावों पर विचार किया लेकिन उसने बाल यौन शोषण, दुर्व्यवहार और नग्नता से जुड़ी पॉलिसी में “जागरूकता फैलाने” से जुड़ा अपवाद शामिल न करने का फ़ैसला किया. उसे यह दावा करते हुए ऐसा किया कि यह स्थिति बच्चों के श्रेष्ठ हित के अनुसार है, जैसा कि UNCRC के अनुच्छेद 3 में बताया गया है. कंपनी ने फिर से शिकार बनाए जाने और बाल दुर्व्यवहार से जुड़ी रिपोर्ट्स में दिखाए जाने या संदर्भित किए जाने की सूचित सहमति देने की बाल पीड़ितों की कम क्षमता से जुड़ी समस्याओं को नोट किया. पारदर्शिता के हित में और यूज़र्स को स्पष्ट मार्गदर्शन देने के लिए, बाल यौन शोषण, दुर्व्यवहार और नग्नता से जुड़ी पॉलिसी में यह स्पष्ट किया जाना चाहिए कि उसमें यौन शोषण के बाल पीड़ितों की पहचान की अनुमति नहीं दी जाती, भले ही उसका उद्देश्य दुर्व्यवहार की रिपोर्ट करना, जागरूकता फैलाना या निंदा करना हो. चूँकि कई अन्य पॉलिसी में पॉलिसी के अपवाद शामिल हैं, इसलिए Meta को पहले से यह नहीं मानना चाहिए कि इस बारे में चुप्पी रखना कि अपवाद लागू होते हैं या नहीं, इस बात की पर्याप्त जानकारी है कि मीडिया रिपोर्टिंग और समर्थन को हटा दिया जाएगा, अगर वे गरिमा और प्राइवेसी के संबंध में शर्तों में दी गई कुछ खास स्थितियों की पूर्ति न करते हों. ऐसे नोटिस को वैसा ही रूप दिया जा सकता है जैसा कि पॉलिसी बनाने के कारण में मौजूदा मार्गदर्शन का है. इसमें इस बात को हाइलाइट किया जा सकता है कि Meta, उदाहरण के लिए, बच्चों की नग्न फ़ोटो शेयर करने पर पूरी तरह प्रतिबंध क्यों लगाता है, भले ही उन बच्चों के माता-पिता का इरादा कोई नुकसान पहुँचाने का न हो.

ऐसे किसी अपडेट को यह दर्शाना चाहिए कि Meta, अत्यंत अपवादस्वरूप परिस्थितियों में खबरों में रहने लायक होने की छूट दे सकता है. बोर्ड ने नोट किया कि उस छूट की Meta की व्याख्या में उसका एक ऐसा उदाहरण शामिल है जिसमें Phan Thị Kim Phúc की “terror of war” फ़ोटो के जनहित और ऐतिहासिक महत्ता के कारणों से परमिशन दी गई है, जिसे कभी-कभी अनौपचारिक रूप से “napalm girl” कहा जाता है.

बोर्ड ने नोट किया कि पॉलिसी के वे अपवाद और सामान्य छूटें, जिसे खबरों में रहने लायक होने की छूट और पॉलिसी की भावना से जुड़ी छूट कहा जाता है, अलग-अलग हैं लेकिन उनमें आसानी से अंतर नहीं किया जा सकता. हर कम्युनिटी स्टैंडर्ड कुछ खास पॉलिसी अपवाद दे भी सकता है और नहीं भी, लेकिन सामान्य अपवाद, कम्युनिटी स्टैंडर्ड के भीतर सभी पॉलिसी क्षेत्रों पर लागू किए जा सकते हैं. इसलिए यूज़र्स को स्पष्ट और एक्सेस लायक मार्गदर्शन देने के लिए Meta को हर कम्युनिटी स्टैंडर्ड में एक नया सेक्शन बनाना चाहिए जिसमें यह बताया जाए कि कौन-से पॉलिसी अपवाद और सामान्य छूटें लागू होती हैं. अगर Meta के पास कुछ ऐसे खास अपवाद न देने के कारण हैं जो अन्य पॉलिसी पर लागू होते हैं (जैसे जागरूकता फैलाना), तो Meta को इस नए सेक्शन में वह कारण शामिल करना चाहिए. इस सेक्शन में यह नोट किया जाना चाहिए कि खबरों में रहने लायक होने से जुड़ी छूट सभी कम्युनिटी स्टैंडर्ड पर लागू होती हैं.

II. वैधानिक लक्ष्य

अभिव्यक्ति की स्वतंत्रता पर लगने वाले प्रतिबंधों का एक वैधानिक लक्ष्य होना चाहिए, जिसमें दूसरे लोगों के अधिकारों की सुरक्षा और सार्वजनिक व्यवस्था और राष्ट्रीय सुरक्षा की रक्षा शामिल है.

स्वीडिश पत्रकार का नाबालिग पर यौन हिंसा की रिपोर्ट करना फ़ैसले में, बोर्ड इस नतीजे पर पहुँचा कि बाल यौन शोषण, दुर्व्यवहार और नग्नता से जुड़ी पॉलिसी का लक्ष्य नाबालिगों के अधिकारों को ऑफ़लाइन नुकसान से बचाना है. बोर्ड ने पाया कि इस केस में Meta का फ़ैसला और वह पॉलिसी जिसके कारण कंटेंट को मूल रूप से हटाया गया था, यौन शोषण के बाल पीड़ितों के अधिकारों से लेकर उनके शारीरिक और मानसिक स्वास्थ्य की रक्षा (अनुच्छेद 17 UNCRC) के वैधानिक लक्ष्य की पूर्ति करती है. साथ ही प्राइवेसी के उनके अधिकार (अनुच्छेद 17 ICCPR, अनुच्छेद 16 UNCRC) की रक्षा भी करती है जो बच्चों के श्रेष्ठ हितों का सम्मान करने के अनुरूप है (अनुच्छेद 3 UNCRC).

III. आवश्यकता और आनुपातिकता

आवश्यकता और आनुपातिकता के सिद्धांत के अनुसार यह ज़रूरी है कि अभिव्यक्ति की आज़ादी से संबंधित प्रतिबंध "रक्षा करने के उनके कार्य को सही तरीके से पूरा करने वाले होने चाहिए; उनसे उन लोगों के अधिकारों में कम से कम हस्तक्षेप होना चाहिए, जिन्हें उन प्रतिबंधों से होने वाले रक्षात्मक कार्यों का लाभ मिल सकता है [और] जिन हितों की सुरक्षा की जानी है, उसके अनुसार ही सही अनुपात में प्रतिबंध लगाए जाने चाहिए," (सामान्य कमेंट सं. 34, पैरा. 33-34).

UNCRC के अनुच्छेद 3 में कहा गया है कि “बच्चों से जुड़ी सभी कार्रवाइयों में, ... बच्चे के श्रेष्ठ हितों पर प्रमुखता से विचार किया जाना चाहिए.” इसी की तरह, बच्चों की पत्रकारितापूर्ण रिपोर्टिंग पर UNICEF की गाइडलाइन में नोट किया गया है कि बच्चों के अधिकारों और गरिमा का हर परिस्थिति में सम्मान किया जाना चाहिए और यह कि हर अन्य सोच-विचार में बच्चों के श्रेष्ठ हितों की रक्षा की जानी चाहिए जिसमें बच्चों से जुड़े मुद्दों का समर्थन और बच्चों के अधिकारों की रक्षा शामिल है.

बाल अधिकार समिति ने नोट किया है कि देशों को बच्चों के सभी अधिकारों का सम्मान करना चाहिए, जिसमें “उन्हें नुकसान से बचाना और उनके विचारों का पूरा सम्मान करना” शामिल है, (सामान्य कमेंट सं. 25, पैरा. 2). समिति ने आगे यह हाइलाइट किया है कि “बच्चों की गरिमा और सुरक्षा और उनके अधिकारों का उपयोग करने के लिए प्राइवेसी महत्वपूर्ण है” और यह कि “जब कोई अपरिचित व्यक्ति किसी बच्चे के बारे में ऑनलाइन जानकारी शेयर करता है… तो खतरा हो सकता है” (सामान्य कमेंट सं. 25, पैरा. 67).

बोर्ड ने यह रेखांकित किया कि बाल यौन शोषण की पीड़ितों की पहचान उनके नाम या फ़ोटो से उजागर करने वाले कंटेंट पर Meta का प्रतिबंध आवश्यक और आनुपातिक पॉलिसी है. इस नियम का उल्लंघन अपवादस्वरूप ही किया जा सकता है और उसके लिए विषय विशेषज्ञों द्वारा संदर्भ का विस्तृत आकलन ज़रूरी होगा (असुरक्षित स्थितियों में व्यक्तियों की पहचान की परमिशन देना है या नहीं, यह तय करते समय अपवादपूर्ण परिस्थितियों के बारे में समरूप या अतिरिक्त स्टैंडर्ड के लिए आर्मेनिया के युद्धबंदियों का वीडियो देखें.)

बोर्ड के बहुसंख्य सदस्यों के अनुसार, Meta को इस कंटेंट को खबरों में रहने लायक होने की अपनी छूट देते हुए प्लेटफ़ॉर्म पर बनाए रखना चाहिए था. इन सदस्यों ने हाइलाइट किया कि कंटेंट को खबरों में रहने लायक होने की छूट देते हुए उस प्लेटफ़ॉर्म पर बनाए रखना, इस केस में बच्चों के श्रेष्ठ हितों के अनुसार था, जिसे Meta ने एक ऐसी चिंता के रूप में सही पहचाना जिसे सबसे ज़्यादा महत्व दिया जाना चाहिए.

बोर्ड के अधिकांश सदस्यों के लिए, तीन मुख्य कारण मिलकर खबरों में रहने लायक होने की छूट देने का फ़ैसला करते हैं. इस केस में लंबा समय बीतना एक महत्वपूर्ण कारण है जिसके साथ यह तथ्य भी जुड़ जाता है कि इस केस से जुड़े सभी बाल पीड़ित अब इस दुनिया में नहीं हैं. ये मिलकर उन्हें संभावित नुकसान का सीधा जोखिम समाप्त करते हैं. दूसरा, पाकिस्तान में बच्चों का यौन शोषण अभी भी व्यापक रूप से फैला हुआ है लेकिन उसकी पर्याप्त रिपोर्टिंग नहीं होती. तीसरा, विचाराधीन डॉक्यूमेंट्री से इस मुद्दे के बारे में सनसनी नहीं फैलती, लेकिन यह लगभग शिक्षाप्रद रूप से इसके बारे में जागरूकता फैलाती है और पाकिस्तान और अन्य देशों में मानवाधिकार के संबंध में एक गंभीर चिंता के बारे में इससे सार्वजनिक चर्चा में मदद मिल सकती है.

बोर्ड के बहुसंख्य सदस्यों ने यह नोट किया कि पुराने न्यूज़पेपर की कतरनों और फ़ोटो में दिखाए गए पीड़ितों के चेहरों और नामों को धुँधला किया जा सकता था, लेकिन सभी कारणों को देखने के बावजूद भी पूरी डॉक्यूमेंट्री को हटाना अनुपातहीन कदम है. इसके बजाय Meta, यूज़र्स को प्रासंगिक पॉलिसी के बारे में बताने के दूसरे तरीके ढूँढ सकता है और उल्लंघनों को रोकने के लिए तकनीकी समाधान दे सकता है, जैसी कि नीचे चर्चा की गई है. ऊपर बताए गए सभी कारणों को मिलाकर देखते हुए, डॉक्यूमेंट्री को खबरों में रहने लायक होने की छूट दी जानी चाहिए थी.

बोर्ड के अल्पसंख्य सदस्यों के अनुसार, इस कंटेंट को हटाने का Meta का फ़ैसला और खबरों में रहने लायक होने से जुड़ी छूट न देना, मानवाधिकारों के संबंध में Meta की ज़िम्मेदारियों के अनुरूप था और वह इस केस में बच्चों के श्रेष्ठ हित में भी था. बोर्ड के अल्पसंख्य सदस्य मानते हैं कि ऐसी रिपोर्टिंग में दुर्व्यवहार के बाल पीड़ितों की गरिमा को प्राथमिकता दी जानी चाहिए और यह सुनिश्चित किया जाना चाहिए कि उनके प्राइवेसी के अधिकारों का सम्मान हो, भले ही कितना भी समय बीच गया हो और ऐसे कंटेंट की सार्वजनिक चर्चा के लिए वैल्यू कुछ भी मानी गई हो.

बोर्ड के सदस्यों ने हाइलाइट किया कि बाल दुर्व्यवहार की रिपोर्टिंग करते समय, पत्रकारों और मीडिया संगठनों की यह नैतिक ज़िम्मेदारी है कि वे पेशेवर आचार संहिता का पालन करें. यह देखते हुए कि एंगेजमेंट आधारित सोशल मीडिया से सनसनी और “क्लिक बेट” को बढ़ावा मिल सकता है, Meta के लिए यह एक उपयुक्त प्रतिबंध होगा कि वे कंटेंट के संबंध में ऐसी कठोर पॉलिसीज़ बनाए जो मीडिया के लिए यह ज़रूरी बनाए कि वे बच्चों पर असर डालने वाले संवेदनशील मामलों की रिपोर्टिंग ज़िम्मेदारीपूर्वक करे. यह लागू होने वाले उन मानवाधिकार स्टैंडर्ड के अनुरूप होगा जो “सबूत आधारित ऐसी रिपोर्टिंग को बढ़ावा देते हैं जिनमें पीड़ितों और बच निकले लोगों की पहचान उजागर नहीं की जाती,” (सामान्य कमेंट सं. 25, पैरा. 57) और जो “मीडिया को बच्चों के यौन शोषण और यौन दुर्व्यवहार के सभी पहलूओं के बारे में ... उचित शब्दावली का उपयोग करते हुए और बाल पीड़ितों और बाल गवाहों की हर समय प्राइवेसी और पहचान की सुरक्षा करते हुए उपयुक्त जानकारी देने के लिए प्रोत्साहित करता है,” ( बच्चों के अधिकारों पर समझौते के वैकल्पिक प्रोटोकॉल की गाइडलाइन, पैरा. 28.f).

भले ही इस केस का कंटेंट एक जनहित के मामले से जुड़ा हुआ है, बोर्ड के अल्पसंख्य सदस्य यह मानते हैं कि अगर Meta पत्रकारिता के नैतिक मानकों का कठोरता से पालन ज़रूरी बनाता है, तो इन मुद्दों को रिपोर्टिंग इस तरह की जाएगी कि उनमें पीड़ितों और उनके परिवारों की गरिमा और अधिकारों का सम्मान हो. बोर्ड के अल्पसंख्य सदस्यों ने यह भी रेखांकित किया कि समाचार संगठनों के अकाउंट पर तब कोई स्ट्राइक न लगाने का Meta का फ़ैसला आनुपातिक है जब वे कंटेंट को ठीक तरीके से हटा देते हैं.

भले ही बोर्ड ने इस पोस्ट को हटाने के Meta के फ़ैसले को पलट दिया, यह बात अभी भी चिंताजनक है कि कंपनी को कंटेंट के एक भाग पर अपना फ़ैसला लेने में 18 माह लग गए जिसे उसने अंतत: उल्लंघन करने वाला माना, जबकि यूज़र्स की दर्ज़नों रिपोर्ट और कंपनी के अपने वायरल होने का अनुमान बताने वाले सिस्टम ने उसे फ़्लैग किया था. Meta को इसके कारणों की जाँच करनी चाहिए और इस बात का आकलन करना चाहिए कि क्या उर्दू भाषा के वीडियो का रिव्यू करने के लिए उसके सिस्टम या रिसोर्स पर्याप्त हैं (न्यूज़ रिपोर्टिंग में तालिबान का उल्लेख देखें). प्रभावी सिस्टम यह सुनिश्चित करने के लिए ज़रूरी हैं कि ज़रूरी होने पर ऐसी पोस्ट को उन आंतरिक टीमों के पास भेज दिया जाए जिनके पास यह आकलन करने की विशेषज्ञता है कि क्या कंटेंट को प्लेटफ़ॉर्म पर बनाए रखने में कोई जनहित है. इस केस का कंटेंट, वायरल कंटेंट (21.8 मिलियन से ज़्यादा बार देखा गया) का एक ऐसा उदाहरण था जिसकी पहचान तुरंत की जानी चाहिए थी, न सिर्फ़ संभावित नुकसान को रोकने के लिए, बल्कि इसलिए भी ताकि खबरों में रहने लायक होने की छूट देने के लिए उसका आकलन हो पाए.

बोर्ड ने यह भी नोट किया कि अगर इस कंटेंट को पोस्ट करने वाले मीडिया संगठन Voice of America Urdu को उसके द्वारा उल्लंघन की गई पॉलिसी लाइन की ज़्यादा विस्तृत जानकारी दी गई होती, तो वह आसानी से कंटेंट को एडिट करके उसे फिर से पोस्ट कर सकता था, जैसे आपत्तिजनक फ़ोटो वाले अंशों को हटाकर या पीड़ितों के चेहरों को धुँधला करके. इस संबंध में Meta को यूज़र्स को उल्लंघन के बारे में ज़्यादा विशिष्ट नोटिफ़िकेशन देने चाहिए. यह काम अज़रबैजान में आर्मेनियाई केस में बोर्ड की सुझाव सं. 1 और ब्रेस्ट कैंसर के लक्षण और नग्नता केस में सुझाव सं. 2 के अनुसार किया जाना चाहिए. इसके अलावा, यूज़र्स से भार कम करने और बच्चों को खतरे में डालने के उसके जोखिम को कम करने के लिए, Meta को यूज़र्स को ज़्यादा विशिष्ट निर्देश देने के तरीके खोजने चाहिए या अपने प्रोडक्ट में, उदाहरण के लिए, वीडियो के लिए चेहरों को धुँधले करने वाले टूल की एक्सेस देनी चाहिए ताकि यूज़र्स बच्चों के अधिकारों की रक्षा करने वाली Meta की पॉलिसीज़ का आसानी से अनुपालन कर सकें. Meta को इस व्यवहार्यता का आकलन भी करना चाहिए कि क्या ऐसे कंटेंट को हमेशा के लिए हटाए जाने से पहले एक तय समय के लिए उसे सस्पेंड किया जा सकता है ताकि यूज़र को उसे ठीक से एडिट करने का समय मिले (निजी आवास की जानकारी शेयर करने के बारे में पॉलिसी एडवाइज़री टीम की राय में सुझाव सं. 13 देखें). संबंधित कंटेंट के लेखक को यह सूचना दी जा सकती है कि सस्पेंड रहने की अवधि में अगर वे ऐसे टूल का उपयोग करके कंटेंट को अनुपालन में लाते हैं, तो वे अपने कंटेंट को हमेशा के लिए हटाए जाने से बच सकते हैं.

9. ओवरसाइट बोर्ड का फ़ैसला

ओवरसाइट बोर्ड ने कंटेंट हटाने के Meta के फ़ैसले को पलट दिया है और पोस्ट को रीस्टोर करने के लिए कहा है.

10. सुझाव

कंटेंट पॉलिसी

1. यूज़र्स को बेहतर तरीके से यह बताने के लिए पॉलिसी से जुड़े अपवाद कब दिए जा सकते हैं, Meta को हर कम्युनिटी स्टैंडर्ड में एक नया सेक्शन बनाकर उसमें लागू होने वाले अपवादों और छूटों की जानकारी देनी चाहिए. अगर Meta के पास कुछ ऐसे खास अपवादों की परमिशन न देने के कारण हैं जो अन्य पॉलिसी पर लागू होते हैं (जैसे न्यूज़ रिपोर्टिंग या जागरूकता फैलाना), तो Meta को कम्युनिटी स्टैंडर्ड के इस सेक्शन में वह कारण शामिल करना चाहिए.

बोर्ड इसे तब लागू मानेगा जब हर कम्युनिटी स्टैंडर्ड में बताया गया सेक्शन और उन अपवादों के कारण बताए जाएँगे जो लागू होते हैं और लागू नहीं होते.

*प्रक्रिया संबंधी नोट:

ओवरसाइट बोर्ड के फ़ैसले पाँच मेंबर्स के पैनल द्वारा लिए जाते हैं और उन्हें बोर्ड के बहुमत के आधार पर स्वीकृति दी जाती है. ज़रूरी नहीं है कि बोर्ड के फ़ैसले, सभी सदस्यों की निजी राय दर्शाएँ.

इस केस के फ़ैसले के लिए, बोर्ड की ओर से स्वतंत्र रिसर्च करवाई गई थी. बोर्ड को Duco Advisers की सहायता मिली, जो भौगोलिक-राजनैतिक, विश्वास और सुरक्षा और टेक्नोलॉजी के आपसी संबंध पर काम करने वाली एक एडवाइज़री फ़र्म है. Memetica ने भी विश्लेषण उपलब्ध कराया जो सोशल मीडिया ट्रेंड पर ओपन-सोर्स रिसर्च में एंगेज होने वाला संगठन है.

मामले के निर्णयों और नीति सलाहकार राय पर लौटें