पलट जाना
पश्चिम अफ़्रीका में होमोफ़ोबिक हिंसा
ओवरसाइट बोर्ड इस बात से गंभीर रूप से चिंतित है कि Meta, ऐसे दो पुरुषों को दिखाने वाले वीडियो को हटाने में विफल रहा जिन्हें कथित रूप से समलैंगिक होने के कारण पीटा गया था. कंपनी के मूल फ़ैसले को पलटते हुए बोर्ड ने नोट किया कि वीडियो को पाँच महीनों तक Facebook पर बनाए रखने से उन पुरुषों की पहचान उजागर हुई जिससे उन्हें तात्कालिक नुकसान का जोखिम था क्योंकि नाइजीरिया का माहौल LGBTQIA+ लोगों के लिए शत्रुतापूर्ण है.
पूरे फ़ैसले को इग्बो भाषा में पढ़ने के लिए, यहाँ क्लिक करें.
Iji gụọ mkpebi ahụ n'uju n'asụsụ Igbo, pịa ebe a.
सारांश
ओवरसाइट बोर्ड इस बात से गंभीर रूप से चिंतित है कि Meta, खून से लथपथ ऐसे दो पुरुषों को दिखाने वाले वीडियो को हटाने में विफल रहा जिन्हें कथित रूप से समलैंगिक होने के कारण पीटा गया था. कंटेंट को नाइजीरिया में पोस्ट किया गया था जहाँ समान लिंग वाले लोगों के बीच संबंध को अपराध माना जाता है. कंपनी के मूल फ़ैसले को पलटते हुए बोर्ड ने नोट किया कि वीडियो को पाँच महीनों तक Facebook पर बनाए रखने से उन पुरुषों की पहचान उजागर हुई जिससे उन्हें तात्कालिक नुकसान का जोखिम था क्योंकि नाइजीरिया का माहौल LGBTQIA+ लोगों के लिए शत्रुतापूर्ण है. ऐसा नुकसान तात्कालिक है और इसे उलटना असंभव है. यह कंटेंट, जिसमें हिंसा और भेदभाव को शेयर किया गया था और उसका उपहास किया गया था, चार अलग-अलग कम्युनिटी स्टैंडर्ड का उल्लंघन करता है और उसकी कई बार रिपोर्ट की गई थी और तीन अलग-अलग ह्यूमन मॉडरेटर्स ने उसका रिव्यू किया था. यह केस, एन्फ़ोर्समेंट से जुड़ी व्यवस्थागत विफलताएँ दर्शाता है. बोर्ड के सुझावों में एक सुझाव यह भी है कि Meta, नुकसान पहुँचाने में मदद करने और अपराध को बढ़ावा देने से जुड़े कम्युनिटी स्टैंडर्ड के तहत प्रासंगिक नियम के एन्फ़ोर्समेंट का आकलन करे. उनमें इस बात का समाधान भी किया गया कि वीडियो में गलत भाषा बोले जाने के कारण शायद Meta इसे पहचानने में विफल रहा और यह कि कंपनी उन भाषाओं को कैसे हैंडल करती है जिन्हें वह शुरुआती कंटेंट रिव्यू में सपोर्ट नहीं करती.
केस की जानकारी
नाइजीरिया में Facebook के एक यूज़र ने एक वीडियो पोस्ट किया जिसमें खून से लथपथ दो पुरुष दिखाई दे रहे थे. ऐसा लग रहा था कि उन पुरुषों को बाँधकर पीटा गया है. पुरुषों के आसपास खड़े लोग उनसे नाइजीरिया की मुख्य भाषा इग्बो में सवाल पूछ रहे हैं. जवाब में एक पुरुष अपना नाम बताता है और संभवतः दबाव में कहता है कि उसे किसी अन्य पुरुष से सैक्स करने के कारण पीटा गया है. इस कंटेंट को पोस्ट करने वाले यूज़र ने उन पुरुषों की हँसी उड़ाते हुए अंग्रेज़ी भाषा में एक कैप्शन शामिल किया. कैप्शन में कहा गया था कि इन पुरुषों को सैक्स करते हुए पकड़ा गया और यह “मज़ेदार” है क्योंकि वे दोनों विवाहित हैं.
वीडियो को 36 लाख से ज़्यादा बार देखा गया. दिसंबर 2023 में इसे पोस्ट किए जाने से लेकर फ़रवरी 2024 तक, 92 यूज़र्स ने इस कंटेंट की रिपोर्ट की जिनमें से अधिकांश रिपोर्ट हिंसा और उकसावे या नफ़रत फैलाने वाली भाषा के बारे में की गई. दो ह्यूमन रिव्यूअर्स ने फ़ैसला किया कि इससे किसी कम्युनिटी स्टैंडर्ड का उल्लंघन नहीं होता और इसे Facebook पर बने रहना चाहिए. एक यूज़र ने Meta से अपील की, लेकिन एक अन्य ह्यूमन रिव्यू के बाद कंपनी ने फिर से तय किया कि इसमें कोई उल्लंघन नहीं है. इसके बाद उस यूज़र ने बोर्ड को इस फ़ैसले के खिलाफ़ अपील की. बोर्ड द्वारा इस केस को Meta के ध्यान में लाए जाने के बाद, कंपनी ने नुकसान पहुँचाने में मदद करने और अपराध को बढ़ावा देने से जुड़ी अपनी पॉलिसी के तहत पोस्ट को हटा दिया.
नाइजीरिया में समान लिंग वाले लोगों के बीच संबंधों को अपराध माना जाता है और LGBTQIA+ लोगों को भेदभाव और अपने मानवाधिकारों पर गंभीर प्रतिबंधों का सामना करना पड़ता है.
मुख्य निष्कर्ष
बोर्ड ने पाया कि कंटेंट से चार अलग-अलग कम्युनिटी स्टैंडर्ड का उल्लंघन होता है, जिसमें नुकसान पहुँचाने में मदद करने और अपराध को बढ़ावा देने से जुड़ा नियम शामिल है जो आउटिंग रिस्क ग्रुप के कथित सदस्यों की पहचान जाहिर करने की परमिशन नहीं देता. वीडियो में पुरुष की यह स्वीकारोक्ति की उसने दूसरे पुरुष से सैक्स किया है, बलपूर्वक करवाई गई है जबकि कैप्शन में स्पष्ट रूप से आरोप लगाया गया है कि वे पुरुष समलैंगिक हैं. कंटेंट में नफ़रत फैलाने वाली भाषा, धमकी और उत्पीड़न और हिंसक और आपत्तिजनक कंटेंट से जुड़े नियमों का भी उल्लंघन हुआ है.
नुकसान पहुँचाने में मदद करने और अपराध को बढ़ावा देने से जुड़ी पॉलिसी के तहत आउटिंग से जुड़े दो नियम मौजूद हैं. पहला नियम यहाँ प्रासंगिक है और शुरुआती रिव्यू में लागू किया जाता है. यह “आउटिंग: किसी ऐसे व्यक्ति की पहचान या लोकेशन जाहिर करना जो कथित रूप से किसी आउटिंग-रिस्क समूह का सदस्य है” को प्रतिबंधित करता है. ऐसा एक अन्य नियम भी मौजूद है जिसे सिर्फ़ Meta को विशेषज्ञों को एस्केलेट किया जाने पर लागू किया जाता है. बोर्ड इस बात से चिंतित है कि Meta इन दो आउटिंग नियमों के बीच के अंतर को पर्याप्त रूप से स्पष्ट नहीं करता और यह कि शुरुआती रिव्यू में लागू होने वाला नियम सार्वजनिक रूप से यह नहीं कहता कि “आउटिंग” में ऐसे देशों में LGBTQIA+ लोगों की पहचान जाहिर करना शामिल है जहाँ ऑफ़लाइन नुकसान का जोखिम ज़्यादा है, जैसे नाइजीरिया. फ़िलहाल, यह जानकारी सिर्फ़ आंतरिक मार्गदर्शन में उपलब्ध है. इस अस्पष्टता से भ्रम की स्थिति बन सकती है, यूज़र्स द्वारा नियमों का अनुपालन किए जाने में रुकावट आ सकती है और ऐसे दुर्व्यवहार का निशाना बने लोगों की इन पोस्ट को हटवाने की क्षमता बाधित हो सकती है. Meta को अपना सार्वजनिक नियम अपडेट करने और आउटिंग-रिस्क ग्रुप के उदाहरण देने की ज़रूरत है.
अलग-अलग नियमों का उल्लंघन करने और हिंसा और भेदभाव दिखाने के बावजूद इस कंटेंट को लगभग पाँच महीनों तक बनाए रखा गया था. ह्यूमन मॉडरेटर्स ने कंटेंट का रिव्यू किया और यह पहचानने में विफल रहे कि इससे नियमों का उल्लंघन होता है. वीडियो को बनाए रखने जाने पर उन पुरुषों की पहचान जाहिर हो सकती है और पोस्ट से नाइजीरिया में अन्य LGBTQIA+ लोगों को नुकसान पहुँचाने की घटनाएँ बढ़ सकती हैं. आखिर में वीडियो को हटा दिया गया लेकिन तब तक वह वायरल हो चुका था. बोर्ड की रिसर्च में पाया गया कि इसे हटा दिए जाने के बाद भी इसी वीडियो के सीक्वेंस Facebook पर मौजूद थे.
जब बोर्ड ने Meta से उसकी एन्फ़ोर्समेंट कार्रवाइयों के बारे में सवाल पूछे, तो कंपनी ने दो गलतियाँ स्वीकार कीं. पहली गलती में उसके ऑटोमेटेड सिस्टम्स ने ह्यूमन रिव्यू के लिए भेजे जाने से पहले कंटेंट की पहचान अंग्रेज़ी भाषा के कंटेंट के रूप में की, जबकि Meta की टीमों ने फिर वीडियो में बोली जाने वाली भाषा को स्वाहिली के रूप में पहचाना. सही भाषा इग्बो थी जिसे नाइजीरिया में लाखों लोगों द्वारा बोला जाता है, लेकिन शुरुआती कंटेंट मॉडरेशन में इसे Meta द्वारा सपोर्ट नहीं किया जाता. अगर भाषा को सपोर्ट नहीं किया जाता है, जैसा कि इस केस में हुआ, तो इसके बजाय कंटेंट को उन ह्यूमन रिव्यूअर्स को भेज दिया जाता है जो कई भाषाओं में काम करते हैं और वे Meta टेक्नोलॉजी द्वारा उपलब्ध कराए गए अनुवाद पर भरोसा करते हैं. इससे ये चिंताएँ उत्पन्न होती हैं कि असमर्थित भाषाओं के कंटेंट से किस तरह व्यवहार किया जाता है, शुरुआती रिव्यू के लिए कंपनी किन भाषाओं को सपोर्ट करती है और कई भाषाओं में काम करने वाले रिव्यूअर्स द्वारा उपलब्ध कराए गए अनुवाद की सटीकता क्या है.
ओवरसाइट बोर्ड का फ़ैसला
ओवरसाइट बोर्ड ने संबंधित कंटेंट को प्लेटफ़ॉर्म पर बनाए रखने के Meta के मूल फ़ैसले को पलट दिया है.
बोर्ड ने Meta को सुझाव दिया है कि वह:
- नुकसान पहुँचाने में मदद करने और अपराध को बढ़ावा देने से जुड़ी पॉलिसी के “आउटिंग” पर शुरुआती रिव्यू में लागू होने वाले प्रतिबंध को अपडेट करके उसमें “आउटिंग-रिस्क ग्रुप्स” के विस्तृत उदाहरण शामिल करे. इन उदाहरणों में उन देशों के LGBTQIA+ लोग भी शामिल हों जहाँ समान लिंग वाले लोगों के बीच संबंधों को स्वीकार नहीं किया जाता और/या ऐसे प्रकटन से सुरक्षा संबंधी गंभीर खतरे होते हैं.
- नुकसान पहुँचाने में मदद करने और अपराध को बढ़ावा देने से जुड़े कम्युनिटी स्टैंडर्ड के तहत किसी आउटिंग-रिस्क ग्रुप के कथित सदस्य की पहचान या लोकेशन जाहिर होने के शुरुआती रिव्यू में लागू होने वाले प्रतिबंध के एन्फ़ोर्समेंट की सटीकता का आकलन करे.
- सुनिश्चित करे कि उसके भाषा पहचान सिस्टम उन भाषाओं के कंटेंट को सटीकता से पहचानें जिन्हें सपोर्ट नहीं किया जाता और उन रिव्यूअर्स के लिए ऐसे कंटेंट के सही अनुवाद प्रदान करें जिन्हें उस भाषा की समझ नहीं है.
- सुनिश्चित करे कि असमर्थित भाषाओं वाले कंटेंट को, भले ही उसमें समर्थित भाषा भी शामिल हो, ऐसे रिव्यू के लिए भेजा जाए जिनमें भाषा की जानकारी की ज़रूरत नहीं होती. इसमें रिव्यूअर्स को असमर्थित भाषा वाले कंटेंट को भाषा निरपेक्ष रिव्यू के लिए आगे भेजने का विकल्प देना शामिल है.
* केस के सारांश से केस का ओवरव्यू मिलता है और आगे के किसी फ़ैसले के लिए इसको आधार नहीं बनाया जा सकता है.
केस का पूरा फ़ैसला
1. केस की जानकारी और बैकग्राउंड
दिसंबर 2023 में, नाइजीरिया में Facebook के एक यूज़र ने एक वीडियो पोस्ट किया जिसमें दो पुरुष दिखाई दे रहे थे और स्पष्ट रूप से ऐसा लग रहा था कि उन्हें पीटा गया है. वे ज़मीन पर एक खंभे और रस्सी के पास बैठे हैं जिससे लग रहा है कि शायद उन्हें बाँधा गया है और उनके शरीर से काफ़ी खून बह रहा है. कई लोग उन पुरुषों से इग्बो भाषा में सवाल पूछ रहे हैं. इग्बो नाइजीरिया की एक मुख्य भाषा है. जवाब में एक पुरुष अपना नाम बताता है और संभवतः दबाव में कहता है कि उसे किसी अन्य पुरुष से सैक्स करने के कारण पीटा गया है. दोनों पुरुष डरे हुए लग रहे हैं और एक पुरुष को पास खड़ा एक व्यक्ति लात मार रहा है. इस वीडियो को पोस्ट करने वाले यूज़र ने उन पुरुषों की हँसी उड़ाते हुए अंग्रेज़ी भाषा में एक कैप्शन शामिल किया. कैप्शन में कहा गया था कि इन पुरुषों को सैक्स करते हुए पकड़ा गया और यह “मज़ेदार” है क्योंकि वे दोनों विवाहित हैं.
इस कंटेंट को 36 लाख से ज़्यादा बार देखा गया, इस पर लगभग 9,000 रिएक्शन दिए गए और इसे लगभग 5,000 बार शेयर किया गया. दिसंबर 2023 से फ़रवरी 2024 के बीच, 92 यूज़र्स ने कंटेंट की 112 बार रिपोर्ट की. इनमें से अधिकांश रिपोर्ट Meta की हिंसा और उकसावे और नफ़रत फैलाने वाली भाषा से जुड़ी पॉलिसीज़ के तहत की गई थीं. कई रिपोर्ट का रिव्यू दो ह्यूमन मॉडरेटर्स द्वारा किया गया था जिन्होंने तय किया कि कंटेंट से किसी कम्युनिटी स्टैंडर्ड का उल्लंघन नहीं होता और इसलिए उसे Facebook पर बना रहना चाहिए. उनमें से एक यूज़र ने फिर उस कंटेंट को बनाए रखने के Meta के फ़ैसले के खिलाफ़ अपील की. एक अन्य ह्यूमन रिव्यू के बाद, कंपनी ने फिर से तय किया कि कंटेंट से उसके किसी नियम का उल्लंघन नहीं होता. इसके बाद उस यूज़र ने बोर्ड को इस फ़ैसले के खिलाफ़ अपील की. मई 2024 में बोर्ड द्वारा इस केस को Meta के ध्यान में लाए जाने के बाद, कंपनी ने नुकसान पहुँचाने में मदद करने और अपराध को बढ़ावा देने से जुड़ी अपनी पॉलिसी के तहत पोस्ट का रिव्यू करके उसे Facebook से हटा दिया. मूल वीडियो को हटाने के Meta के फ़ैसले के बाद, आगे की रिसर्च में बोर्ड ने पाया कि उसी वीडियो की कई अन्य कॉपियाँ प्लेटफ़ॉर्म पर बनी हुई थीं जिनमें से कुछ दिसंबर 2023 तक पुरानी थीं. इनमें से कुछ कॉपियाँ Facebook ग्रुप्स पर थीं. बोर्ड द्वारा उसी वीडियो की कई कॉपियों का प्लेटफ़ॉर्म पर मौजूद होना फ़्लैग किए जाने के बाद, Meta ने उन्हें हटा दिया और वीडियो को मीडिया मैचिंग सर्विस (MMS) बैंक में जोड़ दिया जो उस कंटेंट की अपने आप पहचान करके उसे हटा देता है जिसे पहले ही उल्लंघन करने वाले के रूप में क्लासीफ़ाय किया गया है. इस तरह के उल्लंघन से कंटेंट पोस्ट करने वाले यूज़र के खिलाफ़ स्टैंडर्ड स्ट्राइक लगाई जाती है, लेकिन Meta ने इस केस में स्ट्राइक नहीं लगाई क्योंकि वीडियो को एन्फ़ोर्समेंट की कार्रवाई किए जाने के 90 से ज़्यादा दिन पहले पोस्ट किया गया था. Meta की पॉलिसी में कहा गया है कि वह उन यूज़र्स के अकाउंट पर स्ट्राइक नहीं लगाता जिनका कंटेंट संबंधी उल्लंघन 90 से ज़्यादा दिन पुराना है.
बोर्ड ने इस केस में अपना फ़ैसला करते समय नीचे दिए संदर्भ पर विचार किया:
अपने सेक्शुअल ओरिएंटेशन या लैंगिक पहचान के कारण नाइजीरिया और दुनिया के कई अन्य भागों में LGBTQIA+ लोगों को हिंसा, यातना, कैद और यहाँ तक कि मौत का भी सामना करना पड़ता है क्योंकि LGBTQIA+ विरोधी भावनाओं में वृद्धि हो रही है (आउटराइट इंटरनेशनल का पब्लिक कमेंट देखें, PC-29658). सेक्शुअल ओरिएंटेशन या लैंगिक पहचान के आधार पर लोगों से भेदभाव के कारण उनका दैनिक जीवन सीमित हो जाता है जिससे उनके बुनियादी मानवाधिकारों और आज़ादी पर असर पड़ता है. एमनेस्टी इंटरनेशनल ने रिपोर्ट किया है कि अफ़्रीका के 31 देशों में समान लिंग वाले लोगों के बीच संबंधों को अपराध माना जाता है. प्रतिबंधों में कैद से लेकर शारीरिक दंड तक शामिल हैं. नाइजीरिया का समान लिंग वाले लोगों के बीच विवाह प्रतिबंध कानून न सिर्फ़ समान लिंग वाले लोगों के बीच संबंधों को अपराध मानता है बल्कि प्रेम के सार्वजनिक प्रदर्शन को प्रतिबंधित करता है और LGBTQIA+ के अधिकारों की रक्षा करने वाले संगठनों के कामकाज पर रोक लगाता है. इसके अलावा, पुरुषमैथुन, व्यभिचार और अशिष्टता पर औपनिवेशिक युग के कानून और अन्य नैतिकता कानून अभी भी LGBTQIA+ लोगों के अधिकारों को प्रतिबंधित करने के लिए लागू किया जा रहे हैं जिनके परिणाम भयानक हैं.
2024 की रिपोर्ट में सेक्शुअल ओरिएंटेशन और लैंगिक पहचान के आधार पर हिंसा और भेदभाव से सुरक्षा के बारे में संयुक्त राष्ट्र की स्वतंत्र विशेषज्ञ की रिपोर्ट के अनुसार: “दुनिया के सभी क्षेत्रों के देशों ने सेक्शुअल ओरिएंटेशन और लैंगिक पहचान के आधार पर लोगों को खास तौर पर टार्गेट करते हुए अभिव्यक्ति, शांतिपूर्ण सभा और सम्मेलन की आज़ादी को दबाने के लिए मौजूदा कानून और पॉलिसीज़ एन्फ़ोर्स की हैं या नए, और कभी-कभी अत्यंत कठोर, कानून या पॉलिसीज़ लेकर आए हैं,” (रिपोर्ट A/HRC/56/49, जुलाई 2024, पैरा. 2 पर).
LGBTQIA+ कम्युनिटी को सपोर्ट करने वाले कार्यकर्ताओं और संगठनों को कानूनी प्रतिबंधों, उत्पीड़न, स्वैच्छिक गिरफ़्तारी, पुलिस के छापे और कामबंदी का सामना करना पड़ सकता है और उन्हें हिंसा की धमकियाँ दी जाती हैं ताकि वे LGBTQIA+ अधिकारों का सार्वजनिक सपोर्ट बंद करें (पैन-अफ़्रीकन ह्यूमन राइट्स डिफ़ेंडर नेटवर्क का पब्लिक कमेंट देखें, PC-29657). मानवाधिकार संगठनों को सरकारी अधिकारियों और गैर-सरकारी लोगों, जैसे सतर्कता समूह और नागरिक सेना, से बदले के डर के कारण दुर्व्यवहार और भेदभाव के केस डॉक्यूमेंट करने में कठिनाई हो सकती है. LGBTQIA+ की समस्याओं पर काम करने वाले पत्रकारों को भी निशाना बनाया जा सकता है.
मानवाधिकार संगठनों के लिए LGBTQIA+ लोगों के अधिकारों के उल्लंघन और दुर्व्यवहार को डॉक्यूमेंट करने और बेहतर सुरक्षा की तरफ़दारी करने में सोशल मीडिया एक ज़रूरी टूल है. लोग जागरूकता फैलाने और सरकारों से मानवाधिकार स्टैंडर्ड को कायम रखने की माँग करने के लिए वीडियो, प्रशंसापत्र और रिपोर्ट शेयर कर सकते हैं (ह्यूमन राइट्स वॉच का पब्लिक कमेंट देखें, PC-29659). इसके अलावा, ये प्लेटफ़ॉर्म, कानूनी डेवलपमेंट और कानूनी सहायता पर लोगों को अपडेट देने के लिए जानकारी के केंद्र के रूप में काम कर सकते हैं. बोर्ड द्वारा करवाई गई स्वतंत्र रिसर्च से पता चला है कि प्रतिबंधात्मक कानूनी फ़्रेमवर्क वाले देशों में LGBTQIA+ लोगों के लिए सोशल मीडिया प्लेटफ़ॉर्म एक महत्वपूर्ण भूमिका निभाते हैं. रिसर्च से पता चलता है कि Facebook जैसे प्लेटफ़ॉर्म से यूज़र्स को कनेक्ट होने की सुविधा मिलती है ताकि वे ऑफ़लाइन माध्यमों के बजाय सुरक्षित माहौल में रिसोर्स शेयर कर सकें. इसमें गुमनाम रूप से और क्लोज़ ग्रुप के ज़रिए कनेक्ट होना भी शामिल है.
बोर्ड ने जिन विशेषज्ञों से परामर्श किया, उन्होंने नोट किया कि कुछ अफ़्रीकी देशों के सरकारी अधिकारी भी सोशल मीडिया का उपयोग LGBTQIA+ कंटेंट पोस्ट करने वाले यूज़र्स की गतिविधियों की निगरानी करने और उन्हें नियंत्रित करने के लिए करते हैं. विशेषज्ञों ने रिपोर्ट किया कि नाइजीरिया में अधिकारियों ने LGBTQIA+ समस्याओं से जुड़े ऑनलाइन कंटेंट की ऐक्सेस प्रतिबंधित की है. फ़्रीडम हाउस के अनुसार, नाइजीरिया ने सोशल मीडिया प्लेटफ़ॉर्म को ज़्यादा बड़े रूप में विनियमित करने के लिए एक कानून प्रस्तुत किया है जिससे LGBTQIA+ के ऑनलाइन अधिकारों पर असर पड़ सकता है. इसी तरह, एक डिजिटल अधिकार संगठन Access Now ने रिपोर्ट किया है कि घाना में साइबर अपराध से जुड़े कानून, अधिकारियों को यह सुविधा देते हैं कि वे कंटेंट को हटाने या उसे प्रतिबंधित करने के अनुरोध कर सकें. इससे LGBTQIA+ लोगों की समस्याओं से जुड़ी सार्वजनिक बातचीत प्रतिबंधित हो सकती है और मानवाधिकार के हनन के साथ-साथ कम्युनिटी के लिए महत्वपूर्ण जानकारी के डॉक्यूमेंटेशन पर रोक लग सकती है.
सतर्कता समूहों सहित गैर-सरकारी कार्यकर्ता भी LGBTQIA+ लोगों पर शारीरिक हमले, सार्वजनिक हिंसा, सार्वजनिक अपमान और समाज से बहिष्कार करके उन्हें टार्गेट करते हैं. उदाहरण के लिए, अगस्त 2024 में “Abuja Area Mama” नाम से जाना जाने वाला एक ट्रांसजेंडर Tik-Tok यूज़र, नाइजीरिया की राजधानी अबुजा में कथित रूप से बुरी तरह पीटे जाने के बाद मृत पाया गया था. LGBTQIA+ लोगों का सेक्शुअल ओरिएंटेशन या लैंगिक पहचान पता चलने के बाद उन्हें कम्युनिटी के अन्य सदस्यों द्वारा ब्लैकमेल करने के लिए भी निशाना बनाया जा सकता है. Human Rights Watch के अनुसार, नाइजीरिया का कानूनी फ़्रेमवर्क, LGBTQIA+ लोगों पर हिंसा को बढ़ावा देता है जिससे उन लोगों के लिए सुरक्षा का माहौल बनता है जो इस तरह की हिंसा को अंजाम देते हैं.
2. यूज़र सबमिशन
बोर्ड को दिए अपने बयान में, कंटेंट की रिपोर्ट करने वाले यूज़र ने वीडियो में दिखाई दे रहे पुरुषों को सिर्फ़ उनके समलैंगिक होने के कारण पीटा गया था. यूज़र ने कहा कि वीडियो को न हटाकर Meta अपने प्लेटफ़ॉर्म को नफ़रत और होमोफ़ोबिया का अड्डा बना रहा है और यह कि अगर यह घटना किसी पश्चिमी देश में हुई होती, तो वीडियो को हटा दिया गया होता.
3. Meta की कंटेंट पॉलिसी और सबमिशन
I. Meta की कंटेंट पॉलिसी
नुकसान पहुँचाने में मदद करने और अपराध को बढ़ावा देने से जुड़ी पॉलिसी
नुकसान पहुँचाने में मदद करने और अपराध को बढ़ावा देने से जुड़ी पॉलिसी का लक्ष्य “लोगों, बिज़नेस, प्रॉपर्टी या जीव-जंतुओं को निशाना बनाने वाली कुछ तय आपराधिक या नुकसान पहुँचाने वाली एक्टिविटी को आसान बनाने, उन्हें आयोजित करने, उन्हें प्रमोट करने या उन्हें अमल में लाने” वाले कंटेंट को प्रतिबंधित करके “ऑफ़लाइन नुकसान और नकल करने वाले व्यवहार को रोकना है.” कम्युनिटी स्टैंडर्ड की दो पॉलिसी लाइनों में “आउटिंग” के बारे में बात की गई है. पहली को शुरुआती रिव्यू में लागू किया जाता है और दूसरी को “एन्फ़ोर्स करने के लिए अतिरिक्त संदर्भ की ज़रूरत” होती है, (जिसका अर्थ है कि इस पॉलिसी लाइन को सिर्फ़ एस्केलेशन के बाद ही एन्फ़ोर्स किया जाता है). इस केस में पहली पॉलिसी लाइन लागू होती है. यह विशेष रूप से “आउटिंग: किसी ऐसे व्यक्ति की पहचान या लोकेशन जाहिर करना जो कथित रूप से किसी आउटिंग-रिस्क समूह का सदस्य है” को प्रतिबंधित करती है. इस पॉलिसी लाइन में यह नहीं बताया गया है कि किन समूहों को “आउटिंग-रिस्क समूह” माना जाता है. दूसरी पॉलिसी लाइन, जिसे सिर्फ़ एस्केलेशन पर एन्फ़ोर्स किया जाता है और इस केस में लागू नहीं होती, भी “आउटिंग: किसी व्यक्ति की पहचान जाहिर करना और उसे नुकसान के जोखिम में डालना” को LGBTQIA+ के सदस्यों, बिना बुर्के वाली महिलाओं, कार्यकर्ताओं और युद्धबंदियों सहित कमज़ोर समूहों की खास लिस्ट के लिए प्रतिबंधित करती है.
पहली पॉलिसी लाइन के बारे में कंटेंट रिव्यूअर्स के लिए Meta के आंतरिक मार्गदर्शन के अनुसार, पहचान तब जाहिर हो सकती है जब किसी व्यक्ति के नाम या फ़ोटो जैसी निजी जानकारी का उपयोग किया जाए. Meta के आंतरिक मार्गदर्शन में “आउटिंग-रिस्क ग्रुप” को लिस्ट किया गया है, जिनमें उन देशों के LGBTQIA+ लोग शामिल हैं जहाँ ऐसी किसी ग्रुप से संबंध होने पर उसके सदस्यों की निजी सुरक्षा को संबंधित जोखिम हो सकता है. इसमें यह भी कहा गया है कि “आउटिंग” अनैच्छिक होनी चाहिए: व्यक्ति खुद को इससे बाहर नहीं कर सकता (उदाहरण के लिए, खुद को किसी आउटिंग-रिस्क समूह का सदस्य घोषित करके).
हिंसक और आपत्तिजनक कंटेंट पॉलिसी
हिंसक और आपत्तिजनक कंटेंट पॉलिसी कहती है कि लोगों की कुछ परेशान करने वाली इमेजरी को चेतावनी स्क्रीन के साथ दिखाया जाएगा. इसमें ये शामिल हैं: “किसी व्यक्ति या लोगों के समूह पर की गई बर्बरता की फ़ोटो या वीडियो (जैसे बलपूर्वक कैद किए गए लोगों पर हिंसा या घातक धमकी के काम).” हालाँकि अगर ऐसे कंटेंट के साथ “दूसरों के कष्ट पर खुश होने वाली टिप्पणियाँ” हों, तो पोस्ट को हटा दिया जाएगा. लोगों को दिखाई देने वाले नियमों में दूसरों के कष्ट पर खुश होने वाली टिप्पणियों को इस रूप में परिभाषित किया गया है - “कैप्शन या कमेंट जैसी कमेंटरी जिसमें किसी व्यक्ति या पशु की पीड़ा या अपमान पर खुशी या आनंद व्यक्त किया जाता है.”
धमकी और उत्पीड़न से जुड़ी पॉलिसी
धमकी और उत्पीड़न के कम्युनिटी स्टैंडर्ड के अनुसार Meta के प्लेटफ़ॉर्म पर लोगों को धमकी और अलग-अलग तरह के बुरे संपर्क द्वारा टार्गेट नहीं किया जा सकता और यह कि ऐसा व्यवहार “लोगों को सुरक्षित और सम्मानित महसूस करने से रोकता है.” यह पॉलिसी ऐसे कंटेंट को प्रतिबंधित करती है जो “लोगों की मौत या चिकित्सीय स्थिति पर आनंद लेता है या उसका उपहास करता है.” Meta की आंतरिक गाइडलाइन में यह बताया गया है कि चिकित्सीय स्थिति में गंभीर रोग, बीमारी या चोट शामिल है.
नफ़रत फैलाने वाली भाषा से जुड़ी पॉलिसी
नफ़रत फैलाने वाली भाषा से जुड़ी Meta की पॉलिसी को बनाने के कारण में नफ़रत फैलाने वाली भाषा को सेक्शुअल ओरिएंटेशन सहित सुरक्षित विशिष्टताओं के आधार पर लोगों पर सीधे हमले के रूप में परिभाषित किया गया है. इसमें लिखित या दृश्य रूप में लोगों को निशाना बनाने वाले कंटेंट को प्रतिबंधित किया गया है, जैसे: “घृणित अपराधों की अवधारणा, घटनाओं या पीड़ितों का मज़ाक उड़ाना, भले ही चित्र में किसी वास्तविक व्यक्ति को चित्रित न किया गया हो.” Meta की आंतरिक गाइडलाइन में नफ़रत स्वरूप किए गए अपराधों को ऐसे आपराधिक कृत्य के रूप में परिभाषित किया गया है जो “लोगों की [सुरक्षित विशिष्टता] के आधार पर पूर्वाग्रह से ग्रस्त मंतव्य से उन्हें निशाना बनाने के लिए किए जाते हैं.”
II. Meta के सबमिशन
बोर्ड द्वारा इस केस को चुने जाने के बाद, Meta ने पाया कि कंटेंट से एक ऐसे देश में किसी “आउटिंग-रिस्क ग्रुप” के कथित सदस्यों की पहचान जाहिर होने के कारण उसकी नुकसान पहुँचाने में मदद करने और अपराध को बढ़ावा देने से जुड़ी पॉलिसी का उल्लंघन होता है, जहाँ ऐसे किसी ग्रुप से जुड़े होने पर उसके सदस्यों की निजी सुरक्षा को खतरा हो सकता है. Meta ने नोट किया कि यूज़र के कैप्शन में यह आरोप लगाया गया है कि वे पुरुष समलैंगिक थे, और उनमें से एक पुरुष द्वारा इसकी स्विकारोक्ति बलपूर्वक करवाई गई हो सकती है, जिससे यह पता चलता है कि उनकी पहचान जाहिर करके की गई “आउटिंग” अनैच्छिक थी.
Meta ने पाया कि रिव्यूअर्स का यह फ़ैसला गलत था कि पोस्ट से कम्युनिटी स्टैंडर्ड का उल्लंघन नहीं होता और कंपनी ने यह जाँच की कि ये गलतियाँ क्यों हुईं. इस केस में, ऐसा लगता है कि रिव्यूअर्स ने सिर्फ़ आम वयस्कों के खिलाफ़ किए गए “प्रेमपूर्ण भागीदारी, सेक्शुअल ओरिएंटेशन या लैंगिक पहचान के दावों” के संबंध में धमकी और उत्पीड़न से जुड़ी पॉलिसी पर फ़ोकस किया और पाया कि पॉलिसी का उल्लंघन नहीं हुआ है, लेकिन उन्होंने अन्य संभावित उल्लंघनों पर विचार नहीं किया. इस पॉलिसी के लिए यह ज़रूरी है कि कंटेंट की रिपोर्ट करने वाले यूज़र का नाम और चेहरा, उस कंटेंट में दिखाए गए नाम और चेहरे से मैच होना चाहिए जिसे हटाना है. चूँकि इस केस में कंटेंट की रिपोर्ट करने वाले यूज़र को कंटेंट में दिखाया नहीं गया था, इसलिए रिव्यूअर्स ने इसे उल्लंघन नहीं करने वाला माना. अपनी जाँच के बाद, Meta की ह्यूमन रिव्यू टीम ने नुकसान पहुँचाने में मदद करने और अपराध को बढ़ावा देने से जुड़ी अपनी पॉलिसी को लागू करने और पॉलिसी रिमाइंडर भेजने की सटीकता बेहतर बनाने और उच्च जोखिम वाले लोगों की आउटिंग से जुड़ी पॉलिसी के बारे में अपनी जानकारी की जाँच करने के लिए अतिरिक्त कदम उठाए.
बोर्ड के सवालों के जवाब में, Meta ने कन्फ़र्म किया कि पोस्ट से तीन अन्य कम्युनिटी स्टैंडर्ड का उल्लंघन भी होता है.
पोस्ट से हिंसक और आपत्तिजनक कंटेंट से जुड़ी पॉलिसी का उल्लंघन हुआ क्योंकि पोस्ट में दिखाए गए “बर्बरता” के कृत्य के बारे में दूसरों के कष्ट में खुश होने वाली टिप्पणियाँ थीं और दिखाए गए पुरुषों पर अत्यधिक दबाव लग रहा था और वे लाचार दिखाई दे रहे थे. दूसरों के कष्ट में खुश होने वाली टिप्पणियों के बिना, पॉलिसी के तहत कंटेंट को सिर्फ़ परेशान करने वाला चिह्नित किया जाता. इसने धमकी और उत्पीड़न से जुड़ी पॉलिसी का उल्लंघन किया, क्योंकि कैप्शन में दोनों पुरुषों की स्थिति को “मज़ेदार” बताया गया जबकि उन्हें गंभीर चोट लगी थी. अंत में, इससे नफ़रत फैलाने वाली भाषा से जुड़े कम्युनिटी स्टैंडर्ड का उल्लंघन हुआ क्योंकि कैप्शन में नफ़रत स्वरूप किए गए अपराध के पीड़ितों का उपहास किया गया, खास तौर पर उस हमले के बारे में जो उन पुरुषों के कथित सेक्शुअल ओरिएंटेशन पर आधार पर पूर्वाग्रह से ग्रस्त था.
बोर्ड के सवालों के जवाब में, Meta ने कन्फ़र्म किया कि उसने अतिरिक्त जाँचें करवाईं जिनके आधार पर उसी वीडियो की अन्य कॉपियों को हटाया गया. वीडियो को Meta के MMS बैंकों में जोड़ा गया ताकि भविष्य में कंटेंट के अपलोड को रोका जा सके.
Meta ने बोर्ड को यह भी बताया कि वह शुरुआती भाषा-निरपेक्ष रिव्यू के ज़रिए इग्बो भाषा के कंटेंट को सपोर्ट करने के लिए अपने भाषा पहचान और मशीन अनुवाद सिस्टमों का उपयोग भी करता है. Meta के पास इग्बो भाषा बोलने वाले कुछ लोग मौजूद हैं जो एस्केलेशन पर भाषा संबंधी विशेषज्ञता देते हैं और कंटेंट रिव्यू करते हैं (शुरुआती रिव्यू में नहीं). कंपनी अपने ह्यूमन रिव्यूअर्स के लिए अंग्रेज़ी भाषा और “उनके लिए प्रासंगिक मार्केट की भाषा” में कुशलता ज़रूरी बनाती है. यह कन्फ़र्म करने के पहले कि वीडियो में उपयोग की गई भाषा इग्बो है, Meta ने बोर्ड के साथ अपने एंगेजमेंट में गलती से वीडियो की भाषा को स्वाहिली बताया. अंत में, Meta ने बताया कि चूँकि वीडियो में यूज़र का कैप्शन अंग्रेज़ी भाषा में था, इसलिए कंपनी के ऑटोमेटेड सिस्टम ने कंटेंट की भाषा को अंग्रेज़ी के रूप में पहचाना और उसे अंग्रेज़ी बोलने वाले ह्यूमन रिव्यूअर्स के पास भेज दिया.
बोर्ड ने नुकसान पहुँचाने में मदद करन और अपराध को बढ़ावा देने से जुड़े कम्युनिटी स्टैंडर्ड और अन्य कंटेंट पॉलिसीज़ के एन्फ़ोर्समेंट, नाइजीरिया में Meta की एन्फ़ोर्समेंट कार्रवाइयों, कंटेंट की भाषाओं की Meta द्वारा पहचान और ह्यूमन रिव्यू असाइनमेंट के साथ-साथ सरकारी अनुरोध और नुकसान को रोकने के लिए कंपनी द्वारा किए गए उपायों के संबंध में Meta से 24 सवाल पूछे. Meta ने सभी सवालों के जवाब दिए.
4. पब्लिक कमेंट
ओवरसाइट बोर्ड को सबमिट करने की शर्तों को पूरा करने वाले सात पब्लिक कमेंट मिले. चार कमेंट अमेरिका और कनाडा से, दो कमेंट सब-सहारन अफ़्रीक से और एक कमेंट यूरोप से सबमिट किया गया था. प्रकाशन की सहमति के साथ सबमिट किए गए पब्लिक कमेंट पढ़ने के लिए यहाँ क्लिक करें.
सबमिशन में इन विषयों पर बात की गई थी: सरकारी और गैर-सरकारी लोगों द्वारा पश्चिमी अफ़्रीका में LGBTQIA+ लोगों पर हिंसा और लोगों के सेक्शुअल ओरिएंटेशन और/या लैंगिक पहचान के जाहिर होने से जुड़े जोखिम; समान लिंग वाले लोगों के बीच संबंधों को अपराध ठहराने के LGBTQIA+ लोगों पर असर; नाइजीरिया और ज़्यादा व्यापक रूप से पश्चिमी अफ़्रीका में मानवाधिकार संगठनों, हिमायती समूहों और पत्रकारों पर इस अपराधीकरण और अन्य स्थानीय कानूनों का असर; और Meta के प्लेटफ़ॉर्म, और ज़्यादा व्यापक रूप से सोशल मीडिया, का नाइजीरिया और पश्चिमी अफ़्रीका में LGBTQIA+ लोगों के बीच कम्युनिकेशन, उनकी लामबंदी और जागरूकता फैलाने में महत्व.
5. ओवरसाइट बोर्ड का विश्लेषण
बोर्ड ने Meta की कंटेंट पॉलिसी, वैल्यू और मानवाधिकार से जुड़ी ज़िम्मेदारियाँ के संबंध में इस केस में दिए गए Meta के फ़ैसले का विश्लेषण किया. बोर्ड ने यह भी आकलन किया कि कंटेंट गवर्नेंस को लेकर Meta के व्यापक दृष्टिकोण पर इस केस का क्या असर पड़ेगा.
5.1 Meta की कंटेंट पॉलिसी का अनुपालन
I. कंटेंट से जुड़े नियम
बोर्ड ने पाया कि यह कंटेंट चार कम्युनिटी स्टैंडर्ड का उल्लंघन करता है: नुकसान पहुँचाने में मदद करना और अपराध को बढ़ावा देना, नफ़रत फैलाने वाली भाषा, हिंसक और आपत्तिजनक कंटेंट और धमकी और उत्पीड़न.
कंटेंट से नुकसान पहुँचाने में मदद करने और अपराध को बढ़ावा देने से जुड़ी पॉलिसी का उल्लंघन होता है जिसमें किसी आउटिंग-रिस्क ग्रुप के कथित सदस्यों की पहचान जाहिर करना प्रतिबंधित किया गया है. बोर्ड, Meta की इस बात से सहमत है कि वीडियो में मौजूद दो लोगों की पहचान उनकी इच्छा के खिलाफ़ जाहिर की गई है. उन पुरुषों को पीटा गया लग रहा है और वे डरे हुए दिखाई दे रहे हैं. उनमें से एक पुरुष ने यह स्वीकार किया है कि उसने दूसरे पुरुष से सैक्स किया है, लेकिन ऐसा लगता है कि उससे यह जबरन और उसकी इच्छा के खिलाफ़ कहलवाया गया है. इसके अलावा, वीडियो के कैप्शन में स्पष्ट रूप से कहा गया है कि वे पुरुष समलैंगिक हैं.
इसके अलावा, वह नफ़रत फैलाने वाली भाषा से जुड़ी पॉलिसी का उल्लंघन भी करता है जो नफ़रत स्वरूप किए गए अपराधों के पीड़ितों का उपहास करने से रोकती है. वीडियो में दो पुरुषों पर हिंसा, जो वीडियो में जारी रहती है, के बाद की घटनाओं को कैप्चर किया गया है और उन पुरुषों पर चोट स्पष्ट नज़र आ रही हैं. उनमें से एक पुरुष बताता है कि उन्होंने एक-दूसरे से सैक्स किया इसलिए उन्हें पीटा गया और आगे वीडियो के कैप्शन में बताया गया है कि वह मारपीट और हमला, उन पुरुषों के कथित सेक्शुअल ओरिएंटेशन के आधार पर किया गया था. पोस्ट के कैप्शन में नफ़रत स्वरूप किए गए इस अपराध के पीड़ितों का यह कहते हुए उपहास किया गया कि वे दोनों विवाहित हैं इसलिए यह “मज़ेदार” है, इसलिए बोर्ड यह मानता है कि इससे Meta की “उपहास” की शर्त की पूर्ति होती है.कैप्शन
पोस्ट के कैप्शन में स्थिति को “मज़ेदार” बताते हुए उनकी स्पष्ट चोटों (“चिकित्सीय स्थिति”) का उपहास किया गया, इसलिए यह कंटेंट धमकी और उत्पीड़न से जुड़ी पॉलिसी का भी उल्लंघन करता है.
अंत में बोर्ड ने पाया कि कंटेंट से हिंसक और आपत्तिजनक कंटेंट से जुड़े कम्युनिटी स्टैंडर्ड का भी उल्लंघन होता है क्योंकि इसमें पीड़ा और अपमान के संदर्भ में दो पुरुषों के खिलाफ़ बर्बरता के कृत्य के बारे में “दूसरों के कष्ट में खुशी व्यक्त करने वाली टिप्पणियाँ” शामिल हैं. अगर कोई अन्य पॉलिसी उल्लंघन मौजूद न भी होता, तो यह कारण ही कंटेंट पर चेतावनी स्क्रीन लगाए जाने के लिए पर्याप्त होता. हालाँकि, कैप्शन में हिंसा के कृत्य और पुरुषों पर हमले का उपहास करते हुए “दूसरों के कष्ट में खुशी व्यक्त करने वाली टिप्पणियाँ” हैं, इसलिए पॉलिसी के अनुसार इसे हटाना ज़रूरी है.
II. एन्फ़ोर्समेंट एक्शन
बोर्ड खास तौर पर इस बात से चिंतित है कि इतनी गंभीर हिंसा और भेदभाव दिखाने वाला और चार कम्युनिटी स्टैंडर्ड का उल्लंघन करने वाला कंटेंट लगभग पाँच महीनों तक प्लेटफ़ॉर्म पर बना रहा और यह कि उसी वीडियो की अन्य कॉपियाँ मूल वीडियो को हटाए जाने के बाद भी प्लेटफ़ॉर्म पर बनी रहीं. दिसंबर 2023 में इसे पोस्ट किए जाने के बाद, वीडियो को 92 अलग-अलग यूज़र्स ने 112 बार इसकी रिपोर्ट की. इस समय तक इस अकेले वीडियो को लाखों लोगों द्वारा देखा गया और उस पर हज़ारों रिएक्शन प्राप्त हुए. तीन अलग-अलग ह्यूमन मॉडरेटर ने रिपोर्ट और उसके बाद की अपीलों का रिव्यू किया. तीनों को उसमें कोई उल्लंघन दिखाई नहीं दिया, शायद इसलिए क्योंकि उन्होंने सभी कम्युनिटी स्टैंडर्ड के आधार पर पोस्ट का रिव्यू नहीं किया. इसके अलावा, शायद ये रिव्यूअर इग्बो भाषा से परिचित नहीं थे या वे भाषा-निरपेक्ष रिव्यू कर पाने में सक्षम नहीं थे, यह देखते हुए कि Meta के ऑटोमेटेड सिस्टम ने कंटेंट को गलती से अंग्रेज़ी भाषा के रूप में पहचान लिया और उसे अंग्रेज़ी बोलने वाले रिव्यूअर्स के पास भेज दिया.
5.2 Meta की मानवाधिकारों से जुड़ी ज़िम्मेदारियों का अनुपालन
बोर्ड ने पाया कि बिज़नेस और मानवाधिकारों पर संयुक्त राष्ट्र के मार्गदर्शक सिद्धांतों (UNGP) को ध्यान में रखते हुए कंटेंट को प्लेटफ़ॉर्म पर बनाए रखना Meta की मानवाधिकार से जुड़ी ज़िम्मेदारियों के अनुरूप नहीं था. 2021 में Meta ने अपनी मानवाधिकारों से जुड़ी अपनी कॉर्पोरेट पॉलिसी की घोषणा की, जिसमें उसने UNGP के अनुसार मानवाधिकारों का ध्यान रखने की अपनी प्रतिबद्धता दोहराई. मार्गदर्शन सिद्धांत 13 के अनुसार, कंपनियों को “अपनी गतिविधियों से मानवाधिकारों पर प्रतिकूल प्रभाव पड़ने का कारण बनने या उसमें योगदान देने से बचना चाहिए” और “मानवाधिकारों पर पड़ने वाले ऐसे प्रतिकूल प्रभावों को रोकना या कम करना चाहिए जो उनके कामकाज, प्रोडक्ट या सेवाओं से सीधे संबंधित होते हैं,” भले ही उनसे उन प्रभावों में योगदान नहीं हुआ हो.
UNGP की व्याख्या करते हुए, बोर्ड ने अभिव्यक्ति और राय की आज़ादी पर संयुक्त राष्ट्र के विशेष रैपर्टर के आधार पर कहा कि सोशल मीडिया कंपनियों को नागरिक और राजनैतिक अधिकारों पर अंतरराष्ट्रीय वाचा (ICCPR) के अनुच्छेद 19 और 20, (अभिव्यक्ति की आज़ादी पर संयुक्त राष्ट्र के विशेष रैपर्टर की 2018 की रिपोर्ट का पैरा. 44-48, A/HRC/38/35 और अभिव्यक्ति की आज़ादी पर संयुक्त राष्ट्र के विशेष रैपर्टर की 2019 की रिपोर्ट का पैरा. 41, A/74/486 देखें) में तय अभिव्यक्ति की आज़ादी के वैश्विक स्टैंडर्ड पर विचार करना चाहिए.
ICCPR का अनुच्छेद 20, पैरा. 2 कहता है कि “राष्ट्रीय, नस्लीय या धार्मिक नफ़रत के किसी भी समर्थन, जिससे भेदभाव, दुश्मनी या हिंसा को उकसावा मिलता है, को कानून द्वारा प्रतिबंधित किया जाना चाहिए.” यह प्रतिबंध “अनुच्छेद 19 [ICCPR] में बताए गए अभिव्यक्ति की आज़ादी के अधिकार के अनुरूप है. यह ऐसा व्यवहार है जिसके साथ विशेष कर्तव्य और ज़िम्मेदारियाँ जुड़ी हैं.” ( सामान्य कमेंट सं. 11, (1983), पैरा. 2). राष्ट्रीय, नस्लीय या धार्मिक नफ़रत के किसी भी समर्थन, जिससे भेदभाव, दुश्मनी या हिंसा को उकसावा मिलता है, के प्रतिबंध पर रबात एक्शन प्लान, अनुच्छेद 20, पैरा 2 की व्याख्या करने का एक महत्वपूर्ण रोडमैप है ( A/HRC/22/17/Add.4, 2013, पैरा. 29). यह देशों के लिए यह तय करने के छह प्रासंगिक कारण देता है कि क्या भाषा को प्रतिबंधित किया जाना चाहिए: “कथन का संदर्भ; वक्ता की स्थिति; टार्गेट ग्रुप के खिलाफ़ ऑडियंस को उकसाने का इरादा; कथन का कंटेंट; फैलाव का दायरा और तात्कालिक नुकसान सहित नुकसान की संभावना.” बोर्ड इन कारकों को Meta द्वारा अभिव्यक्ति पर प्रतिबंध की आवश्यकता और आनुपातिकता के निर्धारण के लिए उपयोग कर रहा है. इस केस में, बोर्ड यह आकलन करने के लिए इन्हीं कारकों का उपयोग कर रहा है कि क्या Meta को अपनी मानवाधिकार से जुड़ी ज़िम्मेदारियों को देखते हुए कंटेंट को हटा देना चाहिए.
बोर्ड ने पाया कि कंटेंट को प्लेटफ़ॉर्म पर बनाए रखने के Meta के मूल फ़ैसले से वीडियो में मौजूद पुरुषों के लिए तात्कालिक नुकसान का जोखिम बना, इसलिए इसे हटाना ज़रूरी था. नाइजीरिया जैसे देशों में, जहाँ सामाजिक व्यवहार और समान लिंग वाले लोगों के बीच संबंधों से होमोफ़ोबिक हिंसा भड़कती है, LGBTQIA+ लोगों का ऑनलाइन रूप से बहिष्कार किया जाता है और उन्हें ऑफ़लाइन हिंसा और भेदभाव का खतरा हो सकता है. इस वीडियो पर समय से कार्रवाई करने में Meta की विफलता से इस वीडियो को इतने व्यापक रूप से शेयर किया गया. इससे उस शत्रुतापूर्ण माहौल में संभावित रूप से योगदान हुआ और अन्य लोगों को लिए जोखिम पैदा हुआ (Human Rights Watch का पब्लिक कमेंट देखें, PC-29659). बोर्ड ने यह भी नोट किया कि पोस्ट को बड़ी संख्या में देखा गया (36 लाख से ज़्यादा बार), जिससे इस बात का खतरा बढ़ा कि वीडियो में मौजूद पुरुषों को पहचान लिया जाएगा और पोस्ट से यूज़र्स व्यापक रूप से LGBTQIA+ लोगों को नुकसान पहुँचाने के लिए भड़केंगे. इसके अलावा, बोर्ड ने वीडियो के साथ दी गई दूसरों के कष्ट में खुशी मनाने वाली टिप्पणियों को भी हाइलाइट किया, जो बताती हैं कि यूज़र का इरादा उन पुरुषों की पहचान जाहिर करना और उन्हें अपमानित करना था, जिससे दूसरे लोग उनसे भेदभाव करने और उन्हें नुकसान पहुँचाने के लिए भड़कें. रिएक्शन (लगभग 9,000), कमेंट (लगभग 8,000) और शेयर (लगभग 5,000) की बड़ी संख्या बताती है कि यूज़र अपनी ऑडियंस को एंगेज करने में सफल रहा, जिससे वीडियो में दिखाए गए पुरुषों और नाइजीरिया में LGBTQIA+ लोगों के लिए नुकसान की आशंका बढ़ी.
ICCPR के अनुच्छेद 20, पैरा. 2 पर आधारित अभिव्यक्ति संबंधी प्रतिबंधों को ICCPR के अनुच्छेद 19 के तीन भागों वाले टेस्ट को पूरा करना चाहिए ( सामान्य कमेंट सं. 34, पैरा. 50). बाद में किए गए विश्लेषण में पाया गया कि पोस्ट को हटाना अनुच्छेद 19 के अनुसार सही था.
अभिव्यक्ति की आज़ादी (आर्टिकल 19 ICCPR)
ICCPR के आर्टिकल 19 से अभिव्यक्ति की आज़ादी को व्यापक सुरक्षा मिलती है, जिसमें राजनैतिक अभिव्यक्ति और मानवाधिकारों की चर्चा के साथ-साथ ऐसी अभिव्यक्ति भी शामिल है जिसे “घोर आपत्तिजनक” भी माना जा सकता है (सामान्य कमेंट सं. 34, (2011), पैरा. 34, अभिव्यक्ति की आज़ादी पर संयुक्त राष्ट्र के विशेष रैपर्टर की 2019 की रिपोर्ट का पैरा. 17 भी देखें, A/74/486). जहाँ राज्य, अभिव्यक्ति पर प्रतिबंध लगाता है, वहाँ प्रतिबंधों को वैधानिकता, वैधानिक लक्ष्य और आवश्यकता तथा आनुपातिकता की शर्तों को पूरा करना चाहिए (अनुच्छेद 19, पैरा. 3, ICCPR). इन आवश्यकताओं को अक्सर “तीन भागों वाला परीक्षण” कहा जाता है. बोर्ड इस फ़्रेमवर्क का उपयोग बिज़नेस और मानवाधिकारों से जुड़े संयुक्त राष्ट्र संघ के मार्गदर्शक सिद्धांतों के अनुरूप Meta की मानवाधिकार ज़िम्मेदारियों को समझने के लिए करता है. बोर्ड ऐसा इसलिए करता है कि वह रिव्यू के लिए आए कंटेंट से जुड़े अलग-अलग फ़ैसले ले सके और यह समझ सके कि कंटेंट मॉडरेशन से जुड़ा Meta का व्यापक दृष्टिकोण क्या है. जैसा कि अभिव्यक्ति की आज़ादी के बारे में संयुक्त राष्ट्र के खास रैपर्टर में कहा गया है कि भले ही “कंपनियों का सरकारों के प्रति दायित्व नहीं है, लेकिन उनका प्रभाव इस तरह का है जो उनके लिए अपने यूज़र की सुरक्षा के बारे में इस तरह के सवालों का मूल्यांकन करना ज़रूरी बनाता है” (A/74/486, पैरा. 41).
बोर्ड ने नोट किया कि इस केस में एक से ज़्यादा कंटेंट पॉलिसीज़ लागू होती हैं, लेकिन इसका तीन भागों वाला विश्लेषण Meta की नुकसान पहुँचाने में मदद करने और अपराध को बढ़ावा देने से जुड़े कम्युनिटी स्टैंडर्ड पर फ़ोकस था, यह देखते हुए कि इसी पॉलिसी के तहत कंपनी ने अंततः कंटेंट को हटाया था.
I. वैधानिकता (नियमों की स्पष्टता और सुलभता)
वैधानिकता के सिद्धांत के लिए यह ज़रूरी है कि अभिव्यक्ति को सीमित करने वाले नियमों को एक्सेस किया जा सकता हो और वे स्पष्ट हों. उन्हें पर्याप्त सटीकता के साथ बनाया गया हो ताकि लोग अपने व्यवहार को उसके अनुसार बदल सकें (सामान्य टिप्पणी सं. 34, पैरा. 25). इसके अलावा, ये नियम “उन लोगों को अभिव्यक्ति की आज़ादी पर प्रतिबंध लगाने के निरंकुश अधिकार नहीं दे सकते, जिनके पास इन नियमों को लागू करने की ज़िम्मेदारी है” और नियमों में “उन लोगों के लिए पर्याप्त मार्गदर्शन भी होना ज़रूरी है जिन पर इन्हें लागू करने की ज़िम्मेदारी है ताकि वे यह पता लगा सकें कि किस तरह की अभिव्यक्ति को उचित रूप से प्रतिबंधित किया गया है और किसे नहीं,” (पूर्वोक्त). अभिव्यक्ति की आज़ादी पर संयुक्त राष्ट्र संघ के विशेष रैपर्टर ने कहा है कि ऑनलाइन अभिव्यक्ति की निगरानी करने के मामले में निजी संस्थानों पर लागू होने वाले नियम स्पष्ट और विशिष्ट होने चाहिए (A/HRC/38/35, पैरा. 46). Meta के प्लेटफ़ॉर्म का उपयोग करने वाले लोगों के पास इन नियमों की एक्सेस होनी चाहिए और उन्हें ये नियम समझ में आने चाहिए. साथ ही, उन नियमों के एन्फ़ोर्समेंट के बारे में कंटेंट रिव्यूअर्स को स्पष्ट मार्गदर्शन दिया जाना चाहिए.
बोर्ड ने पाया कि किसी आउटिंग-रिस्क ग्रुप के कथित सदस्य की पहचान या लोकेशन जाहिर करके किसी व्यक्ति की “आउटिंग” पर Meta का प्रतिबंध पर्याप्त रूप से स्पष्ट और यूज़र्स के लिए ऐक्सेस लायक नहीं है.
नुकसान पहुँचाने में मदद करने और अपराध को बढ़ावा देने से जुड़ा कम्युनिटी स्टैंडर्ड, “आउटिंग” के दो मिलते-जुलते नियमों को समझने और उनमें अंतर करने की पर्याप्त व्याख्या नहीं करता. बोर्ड खास तौर पर इस बात से चिंतित है कि कम्युनिटी स्टैंडर्ड में स्पष्ट रूप से यह नहीं बताया गया है कि “आउटिंग” के बारे में शुरुआती रिव्यू में लागू होने वाला नियम, उन देशों में LGBTQIA+ लोगों की पहचान जाहिर करने पर भी लागू होता है जहाँ स्थानीय संदर्भ के अनुसार ऑफ़लाइन नुकसान का ज़्यादा जोखिम देखा गया है. फ़िलहाल यह जानकारी, सिर्फ़ रिव्यूअर्स के लिए आंतरिक मार्गदर्शन में उपलब्ध है, जिससे यूज़र्स को इस बात की जानकारी नहीं मिल पाती कि “जोखिमग्रस्त” आउटिंग ग्रुप के कथित सदस्यों में कुछ खास देशों के LGBTQIA+ लोग भी आते हैं.
बोर्ड इस बात से चिंतित है कि LGBTQIA+ लोगों की आउटिंग से जुड़े कंटेंट पर Meta की पॉलिसी से यूज़र भ्रमित हो सकते हैं और यह उन्हें प्लेटफ़ॉर्म के नियमों का पालन करने से रोक सकता है. इससे दुर्व्यवहार वाले कंटेंट द्वारा टार्गेट किए गए वे लोग भी बाधित हो सकते हैं जो ऐसी पोस्ट को हटवाना चाहते हैं. इसलिए Meta को नुकसान पहुँचाने में मदद करने और अपराध को बढ़ावा देने से जुड़ी उस लाइन को अपडेट करना चाहिए जो “आउटिंग” को प्रतिबंधित करती है और जिसे कंपनी शुरुआती रिव्यू में एन्फ़ोर्स करती है. इस अपडेट में कंपनी को कुछ देशों में LGBTQIA+ लोगों सहित आउटिंग-रिस्क समूहों के विस्तृत उदाहरण शामिल करने चाहिए.
II. वैधानिक लक्ष्य
अभिव्यक्ति की आज़ादी पर लगाए जाने वाले किसी भी प्रतिबंध में ICCPR में सूचीबद्ध कानूनी लक्ष्यों में से एक या एक से ज़्यादा को पूरा किया जाना चाहिए, जिसमें अन्य लोगों के अधिकारों की रक्षा शामिल है (अनुच्छेद 19, पैरा. 3, ICCPR).
नुकसान पहुँचाने में मदद करने और अपराध को बढ़ावा देने से जुड़ी पॉलिसी, “ऑफ़लाइन नुकसान को रोकने और उसे बाधित करने” के वैधानिक लक्ष्य को पूरा करती है, जिसमें LGBTQIA+ लोगों और पूरी दुनिया के उन देशों में इस तरह के कथित लोगों की सुरक्षा करके ऐसा करना शामिल है जहाँ “आउटिंग” से सुरक्षा संबंधी खतरे होते हैं. उन अधिकारों में खुद से भेदभाव न होने देने के अधिकार (अनुच्छेद 2 और 26, ICCPR) शामिल है जिसमें अभिव्यक्ति और सभा की आजादी (अनुच्छेद 19 और 21, ICCPR), प्राइवेसी (अनुच्छेद 17, ICCPR) के साथ-साथ जीवन (अनुच्छेद 6, ICCPR) और स्वतंत्रता और सुरक्षा (अनुच्छेद 9 ICCPR) के उनके अधिकारों के उपयोग में ऐसा करना शामिल है.
III. आवश्यकता और आनुपातिकता
ICCPR के आर्टिकल 19(3) के तहत, आवश्यकता और आनुपातिकता के सिद्धांत के अनुसार यह ज़रूरी है कि अभिव्यक्ति की आज़ादी पर लगाए जाने वाले प्रतिबंध “उनके सुरक्षात्मक कार्य को सही तरीके से पूरा करने वाले होने चाहिए; उनसे उन लोगों के अधिकारों के साथ कम से कम हस्तक्षेप होना चाहिए, जिन अधिकारों से उन्हें सुरक्षात्मक कार्यों का लाभ मिल सकता है; उन हितों के अनुसार सही अनुपात में होने चाहिए, जिनकी सुरक्षा की जानी है” (सामान्य कमेंट सं. 34, पैरा. 34).
बोर्ड ने पाया कि प्लेटफ़ॉर्म को कंटेंट को हटाने का Meta का अंतिम फ़ैसला एक आवश्यक और अनुपातिक कदम था. बोर्ड द्वारा करवाई गई रिसर्च से पता चला कि नाइजीरिया में LGBTQIA+ लोगों पर लगातार हिंसा हो रही है, उन्हें कभी भी गिरफ़्तार किया जा रहा है, उनका उत्पीड़न किया जा रहा है, उन्हें ब्लैकमेल किया जा रहा है, उनसे भेदभाव किया जा रहा है और उन पर कानूनी प्रतिबंधों का जोखिम है. खुद कंटेंट में उस घटना के बाद की स्थिति दर्शाता है जो कथित समान लिंग वाले लोगों के बीच संबंधों का शारीरिक दंड दिखाई देता है. इन परिस्थितियों में बोर्ड ने पाया कि LGBTQIA+ लोगों की सुरक्षा के लिए बनाई गई पॉलिसीज़ का सटीक एन्फ़ोर्समेंट महत्वपूर्ण है, खास तौर पर उन देशों में जहाँ समान लिंग वाले लोगों के बीच संबंधों को अपराध माना जाता है. इन जोखिमों को देखते हुए, बोर्ड ने पाया कि इस संदर्भ में “आउटिंग” वाले लोगों को सुरक्षा देने के लिए कंटेंट को हटाना सबसे कम बाधक उपाय है. “आउटिंग” का जोखिम तात्कालिक है और उसे उलटा नहीं जा सकता; ऐसे उपाय सिर्फ़ तभी प्रभावी होते हैं जब उन्हें समय से लागू किया जाए.
बोर्ड इस बात से चिंतित है कि Meta, उस स्पष्ट रूप से नुकसानदेह कंटेंट को तत्काल पहचानने और हटाने में विफल रहा जो कथित रूप से समलैंगिक लोगों की पहचान को अनैच्छिक रूप से जाहिर करता है. इससे अप्रत्यक्ष रूप से LGBTQIA+ लोगों के लिए डर के माहौल को बढ़ावा मिलता है और ऐसा माहौल बनता है जिसमें कमज़ोर समूहों के लोगों को निशाना बनाए जाने की परंपरा को स्वीकार किया जाता है और उसे सामान्य बात समझा जाता है (GLAAD का पब्लिक कमेंट देखें, PC-29655). भले ही कंटेंट से चार अलग-अलग कम्युनिटी स्टैंडर्ड का उल्लंघन होता है, उसकी 112 बार रिपोर्ट की गई थी और तीन अलग-अलग मॉडरेटर द्वारा उसका रिव्यू किया गया था, लेकिन बोर्ड द्वारा केस का रिव्यू के लिए चयन किए जाने के बाद ही Meta ने पोस्ट को हटाया और सुनिश्चित किया कि वीडियो वाले मिलते-जुलते कंटेंट को हटाया जाए. बोर्ड खास तौर पर वीडियो के वायरल होने के कारण चिंतित है, जिसे पाँच महीनों के दौरान 36 लाख बार देखा गया, उसे लगभग 9,000 रिएक्शन और 8,000 कमेंट मिले और उसे लगभग 5,000 बार शेयर किया गया.
बोर्ड समझता है कि शुरुआती रिव्यू के दौरान कंटेंट मॉडरेशन में गलतियाँ अपेक्षित हैं, लेकिन इस केस में Meta के स्पष्टीकरण से व्यवस्थागत विफलताएँ सामने आती हैं. नुकसान पहुँचाने में मदद करने और अपराध को बढ़ावा देने से जुड़ी पॉलिसी को एन्फ़ोर्स करने की सटीकता बेहतर बनाने के लिए Meta ने अतिरिक्त कदम उठाए हैं और अतिरिक्त ट्रेनिंग के ज़रिए मिलती-जुलती गलतियों को रोकने की कोशिश की है, लेकिन उसने उन उपायों के बारे में जानकारी उपलब्ध नहीं कराई है जिन्हें कंपनी ने यह सुनिश्चित करने के लिए लागू किए हैं कि ह्यूमन रिव्यूअर्स Meta की सभी पॉलिसीज़ के ध्यान में रखते हुए कंटेंट का आकलन करे. यह खास तौर पर इस केस में प्रासंगिक है जिसमें तीन मॉडरेटर्स ने कंटेंट का रिव्यू किया और अन्य प्रासंगिक कम्युनिटी स्टैंडर्ड के अनुसार पोस्ट का आकलन न करने की एक ही गलती दोहराई. यह बताता है कि Meta के एन्फ़ोर्समेंट सिस्टम अपर्याप्त थे.
बोर्ड ने पाया कि नाइजीरिया के संदर्भ को देखते हुए Meta की गलती खास तौर पर चिंताजनक थी, जिसमें समान लिंग वाले लोगों के बीच संबंधों को अपराध माना जाता है. अपनी पॉलिसी का क्रियान्वयन बेहतर बनाने और कंपनी द्वारा पहले ही लागू उपायों के अलावा, Meta को नुकसान पहुँचाने में मदद करने और अपराध को बढ़ावा देने के नियम को एन्फ़ोर्स करने की सटीकता का आकलन करना चाहिए जो लोगों की पहचान या लोकेशन जाहिर करके उनकी आउटिंग करने वाले कंटेंट को प्रतिबंधित करता है. यह देखते हुए कि इस तरह के कंटेंट को बिल्कुल भी स्वीकार नहीं किया जाएगा, इस आकलन के परिणामों के आधार पर, Meta को फिर पॉलिसी के एन्फ़ोर्समेंट की सटीकता को बेहतर बनाना चाहिए, जिसमें कंटेंट रिव्यूअर्स को अपडेट की गई ट्रेनिंग देकर ऐसा करना शामिल है.
बोर्ड ने बहुभाषी क्षेत्रों में Meta के एन्फ़ोर्समेंट का परीक्षण भी किया. बोर्ड के साथ अपने सवाल-जवाब में, Meta ने पहले गलती से वीडियो को स्वाहिली भाषा का बताया जबकि असल में उसकी भाषा इग्बो थी. बोर्ड के एक सवाल के जवाब में Meta ने नोट किया कि नाइजीरिया के मार्केट में वह कंटेंट मॉडरेशन के लिए इग्बो भाषा को सपोर्ट नहीं करता, भले ही कंपनी भाषा-निरपेक्ष रिव्यू के ज़रिए इग्बो के कंटेंट के लिए मॉडरेशन का सपोर्ट देती है. Meta के अनुसार, इस भाषा को सपोर्ट इसलिए नहीं किया जाता क्योंकि इग्बो में कंटेंट मॉडरेशन की माँग बहुत कम है. हालाँकि, Meta ने बोर्ड को बताया कि जब कोई कंटेंट उस भाषा में होता है जिसे कंपनी के शुरुआती रिव्यूअर्स द्वारा सपोर्ट नहीं किया जाता, जैसे इग्बो, तब उसे भाषा-निरपेक्ष रिव्यू (ऐसे रिव्यूअर्स जो कई भाषाओं के कंटेंट के लिए काम करते हैं) के लिए भेज दिया जाता है जो Meta के मशीन अनुवाद सिस्टम द्वारा उपलब्ध कराए गए अनुवाद के आधार पर कंटेंट का आकलन करते हैं. Meta ने बोर्ड को यह भी बताया कि उसके पास इग्बो बोलने वाले कुछ लोग मौजूद हैं जो कंपनी के लिए इग्बो भाषा से जुड़ी विशेषज्ञता देते हैं और कंटेंट रिव्यू करते हैं, हालाँकि यह शुरुआती रिव्यू में नहीं होता.
बोर्ड ने यह स्वीकार किया कि Meta ने उन भाषाओं के लिए मॉडरेशन की सुविधा देने वाली व्यवस्था की है जिन्हें सपोर्ट नहीं किया जाता, जैसे भाषा-निरपेक्ष रिव्यू और इग्बो भाषा बोलने वाले कुछ विशेषज्ञ. हालाँकि, बोर्ड इस बात से चिंतित है कि इग्बो भाषा बोलने वाले ह्यूमन रिव्यूअर्स को इस भाषा, जिसे नाइजीरिया और दुनियाभर के लाखों लोग बोलते हैं, के शुरुआती कंटेंट मॉडरेशन में शामिल नहीं करने से कंटेंट को प्रभावी रूप से मॉडरेट करने और संभावित जोखिमों को कम करने की कंपनी की योग्यता कम होती है. इससे यूज़र के अधिकारों और सुरक्षा को संभावित रूप से नुकसान हो सकता है, जैसा कि इस केस में दिखाए गए पुरुषों के अनुभव से समझा जा सकता है. मानवाधिकारों से जुड़ी अपनी प्रतिबद्धताओं को देखते हुए, Meta को अपने प्लेटफ़ॉर्म के उपयोग से जुड़े नुकसानों को रोकने और कम करने की बेहतर स्थिति में आने के लिए कंपनी के शुरुआती रिव्यूअर्स द्वारा सपोर्ट की जाने वाली भाषाओं के चयन की शर्तों का फिर से आकलन करना चाहिए.
इसके अलावा, Meta ने बोर्ड को बताया कि उसके ऑटोमेटेड सिस्टम्स ने कंटेंट को ह्यूमन रिव्यू के लिए भेजने से पहले भाषा को अंग्रेज़ी के रूप में पहचाना. Meta के अनुसार, ऐसा इसलिए हुआ क्योंकि वीडियो के लिए यूज़र का कैप्शन अंग्रेज़ी भाषा में था. कैप्शन अंग्रेज़ी में था, लेकिन वीडियो पूरी तरह इग्बो भाषा में था. Meta ने यह स्वीकार किया कि उसने कंटेंट की भाषा को पहचानने में गलती की. बोर्ड इस बात से चिंतित है कि द्विभाषी कंटेंट को गलत जगह भेजा जा रहा है, जिससे एन्फ़ोर्समेंट की सटीकता में संभावित रूप से गलतियाँ हो रही हैं.
जिन भाषाओं को सपोर्ट नहीं किया जाता, उनमें कंटेंट रिव्यू की कुशलता और सटीकता बढ़ाने के लिए, Meta को यह सुनिश्चित करना चाहिए कि भाषा को पहचानने वाले उसके सिस्टम उन भाषाओं के कंटेंट को सटीकता से पहचान पाएँ जिन्हें सपोर्ट नहीं किया जाता और भाषा-निरपेक्ष रिव्यूअर्स के लिए उस कंटेंट का सटीक अनुवाद उपलब्ध कराएँ. Meta को यह भी सुनिश्चित करना चाहिए कि इस तरह के कंटेंट को हमेशा भाषा-निरपेक्ष रिव्यूअर्स के पास भेजा जाए, भले ही उसमें सपोर्ट और सपोर्ट न की जाने वाली भाषाओं का मिश्रण हो. कंपनी को रिव्यूअर्स को असमर्थित भाषा वाले कंटेंट को भाषा निरपेक्ष रिव्यू के लिए आगे भेजने का विकल्प भी देना चाहिए.
बोर्ड इस बात से अत्यंत चिंतित है कि इस केस में Meta द्वारा कंटेंट को हटाए जाने के बाद भी बोर्ड की रिसर्च में पाया गया कि उसी वीडियो की अन्य कॉपियाँ प्लेटफ़ॉर्म पर मौजूद थीं जिनमें से कुछ दिसंबर 2023 जितनी पुरानी थीं और उन्हें हटाया नहीं गया था. ये कॉपियाँ कुछ Facebook ग्रुप्स पर भी मौजूद थीं. इससे पता चलता है कि Meta को अपनी सम्यक तत्परता ज़िम्मेदारियों को ज़्यादा गंभीरता से लेना चाहिए ताकि UNGP के तहत दिए गए मानवाधिकारों का सम्मान हो. बोर्ड ने इस तथ्य का स्वागत किया कि बोर्ड द्वारा Meta को यह बताए जाने के बाद कि वीडियो की कॉपियाँ Facebook पर मौजूद हैं, कंपनी ने भविष्य में अपलोड को रोकने के लिए इस वीडियो को MMS बैंक में जोड़ा. इस तरह के वीडियो को डिस्ट्रिब्यूट करने में Meta के प्लेटफ़ॉर्म के उपयोग से मानवाधिकारों को हो सकने वाले नुकसानों की गंभीरता को देखते हुए, Meta को नए अपलोड रोकने के लिए वीडियो को MMS बैंक में जोड़ने के अलावा, उसे उल्लंघन करने वाले मिलते-जुलते वीडियो पहले ही हटाने के लिए ऑटोमेटेड एन्फ़ोर्समेंट का पूरी तरह उपयोग करना चाहिए.
6. ओवरसाइट बोर्ड का फ़ैसला
ओवरसाइट बोर्ड ने संबंधित कंटेंट को प्लेटफ़ॉर्म पर बनाए रखने के Meta के मूल फ़ैसले को पलट दिया है.
7. सुझाव
कंटेंट पॉलिसी
1. Meta को नुकसान पहुँचाने में मदद करने और अपराध को बढ़ावा देने से जुड़ी पॉलिसी के “आउटिंग” पर शुरुआती रिव्यू में लागू होने वाले प्रतिबंध को अपडेट करके उसमें “आउटिंग-रिस्क ग्रुप्स” के विस्तृत उदाहरण शामिल करना चाहिए. इन उदाहरणों में उन देशों के LGBTQIA+ लोग भी शामिल हों जहाँ समान लिंग वाले लोगों के बीच संबंधों को स्वीकार नहीं किया जाता और/या ऐसे प्रकटन से सुरक्षा संबंधी गंभीर खतरे होते हैं.
बोर्ड इस सुझाव को तब लागू मानेगा जब नुकसान पहुँचाने में मदद करने और अपराध को बढ़ावा देने से जुड़ी पॉलिसी की लोगों को दिखाई देने वाली भाषा में प्रस्तावित बदलाव दिखाई देगा.
एन्फ़ोर्समेंट
2. अपनी पॉलिसी के क्रियान्वयन को बेहतर बनाने के लिए, Meta को नुकसान पहुँचाने में मदद करने और अपराध को बढ़ावा देने से जुड़े कम्युनिटी स्टैंडर्ड के तहत किसी आउटिंग-रिस्क ग्रुप के कथित सदस्य की पहचान या लोकेशन जाहिर होने के शुरुआती रिव्यू में लागू होने वाले प्रतिबंध के एन्फ़ोर्समेंट की सटीकता का आकलन करना चाहिए.
बोर्ड इस सुझाव को तब लागू मानेगा जब Meta, इस आकलन के परिणामों को सार्वजनिक रूप से शेयर करेगा और यह बताएगा कि कंपनी इस पॉलिसी के एन्फ़ोर्समेंट की सटीकता को बेहतर बनाने के लिए क्या काम करेगी.
3. जिन भाषाओं को सपोर्ट नहीं किया जाता, उनमें कंटेंट रिव्यू की कुशलता और सटीकता बढ़ाने के लिए, Meta को यह सुनिश्चित करना चाहिए कि भाषा को पहचानने वाले उसके सिस्टम उन भाषाओं के कंटेंट को सटीकता से पहचान पाएँ जिन्हें सपोर्ट नहीं किया जाता और भाषा-निरपेक्ष रिव्यूअर्स के लिए उस कंटेंट का सटीक अनुवाद उपलब्ध कराएँ.
बोर्ड इस सुझाव को तब लागू मानेगा जब Meta उन भाषाओं के कंटेंट को रिव्यूअर्स के पास भेजने और रिव्यू होने की सटीकता में बढ़ोतरी दिखाने संबंधी डेटा शेयर करेगा.
4. Meta को यह सुनिश्चित करना चाहिए कि असमर्थित भाषाओं वाले कंटेंट को, भले ही उसमें समर्थित भाषा भी शामिल हो, ऐसे रिव्यू के लिए भेजा जाए जिनमें भाषा की जानकारी की ज़रूरत नहीं होती. इसमें रिव्यूअर्स को असमर्थित भाषा वाले कंटेंट को भाषा निरपेक्ष रिव्यू के लिए आगे भेजने का विकल्प देना शामिल है.
बोर्ड इस सुझाव को तब लागू मानेगा जब Meta, बोर्ड को रिव्यूअर्स के लिए आगे भेजने के इस विकल्प का सफल क्रियान्वयन दर्शाने वाला डेटा उपलब्ध कराएगा.
*प्रक्रिया संबंधी नोट:
- ओवरसाइट बोर्ड के फ़ैसले पाँच मेंबर्स के पैनल द्वारा लिए जाते हैं और उन पर बोर्ड के अधिकांश मेंबर्स की सहमति होती है. ज़रूरी नहीं है कि बोर्ड के फ़ैसले, सभी सदस्यों की राय दर्शाएँ.
- अपने चार्टर के तहत, ओवरसाइट बोर्ड उन यूज़र्स की अपील रिव्यू कर सकता है, जिनका कंटेंट Meta ने हटा दिया था और उन यूज़र्स की अपील जिन्होंने उस कंटेंट की रिपोर्ट की थी जिसे Meta ने बनाए रखा. साथ ही, बोर्ड Meta की ओर से रेफ़र किए गए फ़ैसलों का रिव्यू कर सकता है (चार्टर आर्टिकल 2, सेक्शन 1). बोर्ड के पास Meta के कंटेंट से जुड़े फ़ैसलों को कायम रखने या उन्हें बदलने का बाध्यकारी अधिकार है (चार्टर आर्टिकल 3, सेक्शन 5; चार्टर आर्टिकल 4). बोर्ड ऐसे गैर-बाध्यकारी सुझाव दे सकता है, जिनका जवाब देना Meta के लिए ज़रूरी है (चार्टर आर्टिकल 3, सेक्शन 4; आर्टिकल 4). जहाँ Meta, सुझावों पर एक्शन लेने की प्रतिबद्धता व्यक्त करता है, वहाँ बोर्ड उनके क्रियान्वयन की निगरानी करता है.
- इस केस के फ़ैसले के लिए, बोर्ड की ओर से स्वतंत्र रिसर्च करवाई गई थी. बोर्ड को Duco Advisers की सहायता मिली, जो भौगोलिक-राजनैतिक, विश्वास और सुरक्षा तथा टेक्नोलॉजी के आपसी संबंध पर काम करने वाली एक एडवाइज़री फ़र्म है. Memetica ने भी रिसर्च संबंधी सेवाएँ दीं, जो ऑनलाइन नुकसान को कम करने के लिए जोखिम परामर्श और खतरे की आशंका से जुड़ी सेवाएँ देने वाला एक डिजिटल इनवेस्टिगेशन ग्रुप है. Lionbridge Technologies, LLC कंपनी ने भाषा संबंधी विशेषज्ञता की सेवा दी, जिसके विशेषज्ञ 350 से भी ज़्यादा भाषाओं में कुशल हैं और वे दुनियाभर के 5,000 शहरों से काम करते हैं.