पश्चिम अफ़्रीका में होमोफ़ोबिक हिंसा
15 अकतूबर 2024
ओवरसाइट बोर्ड इस बात से गंभीर रूप से चिंतित है कि Meta, खून से लथपथ ऐसे दो पुरुषों को दिखाने वाले वीडियो को हटाने में विफल रहा जिन्हें कथित रूप से समलैंगिक होने के कारण पीटा गया था. कंटेंट को नाइजीरिया में पोस्ट किया गया था जहाँ समान लिंग वाले लोगों के बीच संबंध को अपराध माना जाता है. कंपनी के मूल फ़ैसले को पलटते हुए बोर्ड ने नोट किया कि वीडियो को पाँच महीनों तक Facebook पर बनाए रखने से उन पुरुषों की पहचान उजागर हुई जिससे उन्हें तात्कालिक नुकसान का जोखिम था क्योंकि नाइजीरिया का माहौल LGBTQIA+ लोगों के लिए शत्रुतापूर्ण है. ऐसा नुकसान तात्कालिक है और इसे उलटना असंभव है. यह कंटेंट, जिसमें हिंसा और भेदभाव को शेयर किया गया था और उसका उपहास किया गया था, चार अलग-अलग कम्युनिटी स्टैंडर्ड का उल्लंघन करता है और उसकी कई बार रिपोर्ट की गई थी और तीन अलग-अलग ह्यूमन मॉडरेटर्स ने उसका रिव्यू किया था. यह केस, एन्फ़ोर्समेंट से जुड़ी व्यवस्थागत विफलताएँ दर्शाता है. बोर्ड के सुझावों में एक सुझाव यह भी है कि Meta, नुकसान पहुँचाने में मदद करने और अपराध को बढ़ावा देने से जुड़े कम्युनिटी स्टैंडर्ड के तहत प्रासंगिक नियम के एन्फ़ोर्समेंट का आकलन करे. उनमें इस बात का समाधान भी किया गया कि वीडियो में गलत भाषा बोले जाने के कारण शायद Meta इसे पहचानने में विफल रहा और यह कि कंपनी उन भाषाओं को कैसे हैंडल करती है जिन्हें वह शुरुआती कंटेंट रिव्यू में सपोर्ट नहीं करती.
केस की जानकारी
नाइजीरिया में Facebook के एक यूज़र ने एक वीडियो पोस्ट किया जिसमें खून से लथपथ दो पुरुष दिखाई दे रहे थे. ऐसा लग रहा था कि उन पुरुषों को बाँधकर पीटा गया है. पुरुषों के आसपास खड़े लोग उनसे नाइजीरिया की मुख्य भाषा इग्बो में सवाल पूछ रहे हैं. जवाब में एक पुरुष अपना नाम बताता है और संभवतः दबाव में कहता है कि उसे किसी अन्य पुरुष से सैक्स करने के कारण पीटा गया है. इस कंटेंट को पोस्ट करने वाले यूज़र ने उन पुरुषों की हँसी उड़ाते हुए अंग्रेज़ी भाषा में एक कैप्शन शामिल किया. कैप्शन में कहा गया था कि इन पुरुषों को सैक्स करते हुए पकड़ा गया और यह “मज़ेदार” है क्योंकि वे दोनों विवाहित हैं.
वीडियो को 36 लाख से ज़्यादा बार देखा गया. दिसंबर 2023 में इसे पोस्ट किए जाने से लेकर फ़रवरी 2024 तक, 92 यूज़र्स ने इस कंटेंट की रिपोर्ट की जिनमें से अधिकांश रिपोर्ट हिंसा और उकसावे या नफ़रत फैलाने वाली भाषा के बारे में की गई. दो ह्यूमन रिव्यूअर्स ने फ़ैसला किया कि इससे किसी कम्युनिटी स्टैंडर्ड का उल्लंघन नहीं होता और इसे Facebook पर बने रहना चाहिए. एक यूज़र ने Meta से अपील की, लेकिन एक अन्य ह्यूमन रिव्यू के बाद कंपनी ने फिर से तय किया कि इसमें कोई उल्लंघन नहीं है. इसके बाद उस यूज़र ने बोर्ड को इस फ़ैसले के खिलाफ़ अपील की. बोर्ड द्वारा इस केस को Meta के ध्यान में लाए जाने के बाद, कंपनी ने नुकसान पहुँचाने में मदद करने और अपराध को बढ़ावा देने से जुड़ी अपनी पॉलिसी के तहत पोस्ट को हटा दिया.
नाइजीरिया में समान लिंग वाले लोगों के बीच संबंधों को अपराध माना जाता है और LGBTQIA+ लोगों को भेदभाव और अपने मानवाधिकारों पर गंभीर प्रतिबंधों का सामना करना पड़ता है.
मुख्य निष्कर्ष
बोर्ड ने पाया कि कंटेंट से चार अलग-अलग कम्युनिटी स्टैंडर्ड का उल्लंघन होता है, जिसमें नुकसान पहुँचाने में मदद करने और अपराध को बढ़ावा देने से जुड़ा नियम शामिल है जो आउटिंग रिस्क ग्रुप के कथित सदस्यों की पहचान जाहिर करने की परमिशन नहीं देता. वीडियो में पुरुष की यह स्वीकारोक्ति की उसने दूसरे पुरुष से सैक्स किया है, बलपूर्वक करवाई गई है जबकि कैप्शन में स्पष्ट रूप से आरोप लगाया गया है कि वे पुरुष समलैंगिक हैं. कंटेंट में नफ़रत फैलाने वाली भाषा, धमकी और उत्पीड़न और हिंसक और आपत्तिजनक कंटेंट से जुड़े नियमों का भी उल्लंघन हुआ है.
नुकसान पहुँचाने में मदद करने और अपराध को बढ़ावा देने से जुड़ी पॉलिसी के तहत आउटिंग से जुड़े दो नियम मौजूद हैं. पहला नियम यहाँ प्रासंगिक है और शुरुआती रिव्यू में लागू किया जाता है. यह “आउटिंग: किसी ऐसे व्यक्ति की पहचान या लोकेशन जाहिर करना जो कथित रूप से किसी आउटिंग-रिस्क समूह का सदस्य है” को प्रतिबंधित करता है. ऐसा एक अन्य नियम भी मौजूद है जिसे सिर्फ़ Meta को विशेषज्ञों को एस्केलेट किया जाने पर लागू किया जाता है. बोर्ड इस बात से चिंतित है कि Meta इन दो आउटिंग नियमों के बीच के अंतर को पर्याप्त रूप से स्पष्ट नहीं करता और यह कि शुरुआती रिव्यू में लागू होने वाला नियम सार्वजनिक रूप से यह नहीं कहता कि “आउटिंग” में ऐसे देशों में LGBTQIA+ लोगों की पहचान जाहिर करना शामिल है जहाँ ऑफ़लाइन नुकसान का जोखिम ज़्यादा है, जैसे नाइजीरिया. फ़िलहाल, यह जानकारी सिर्फ़ आंतरिक मार्गदर्शन में उपलब्ध है. इस अस्पष्टता से भ्रम की स्थिति बन सकती है, यूज़र्स द्वारा नियमों का अनुपालन किए जाने में रुकावट आ सकती है और ऐसे दुर्व्यवहार का निशाना बने लोगों की इन पोस्ट को हटवाने की क्षमता बाधित हो सकती है. Meta को अपना सार्वजनिक नियम अपडेट करने और आउटिंग-रिस्क ग्रुप के उदाहरण देने की ज़रूरत है.
अलग-अलग नियमों का उल्लंघन करने और हिंसा और भेदभाव दिखाने के बावजूद इस कंटेंट को लगभग पाँच महीनों तक बनाए रखा गया था. ह्यूमन मॉडरेटर्स ने कंटेंट का रिव्यू किया और यह पहचानने में विफल रहे कि इससे नियमों का उल्लंघन होता है. वीडियो को बनाए रखने जाने पर उन पुरुषों की पहचान जाहिर हो सकती है और पोस्ट से नाइजीरिया में अन्य LGBTQIA+ लोगों को नुकसान पहुँचाने की घटनाएँ बढ़ सकती हैं. आखिर में वीडियो को हटा दिया गया लेकिन तब तक वह वायरल हो चुका था. बोर्ड की रिसर्च में पाया गया कि इसे हटा दिए जाने के बाद भी इसी वीडियो के सीक्वेंस Facebook पर मौजूद थे.
जब बोर्ड ने Meta से उसकी एन्फ़ोर्समेंट कार्रवाइयों के बारे में सवाल पूछे, तो कंपनी ने दो गलतियाँ स्वीकार कीं. पहली गलती में उसके ऑटोमेटेड सिस्टम्स ने ह्यूमन रिव्यू के लिए भेजे जाने से पहले कंटेंट की पहचान अंग्रेज़ी भाषा के कंटेंट के रूप में की, जबकि Meta की टीमों ने फिर वीडियो में बोली जाने वाली भाषा को स्वाहिली के रूप में पहचाना. सही भाषा इग्बो थी जिसे नाइजीरिया में लाखों लोगों द्वारा बोला जाता है, लेकिन शुरुआती कंटेंट मॉडरेशन में इसे Meta द्वारा सपोर्ट नहीं किया जाता. अगर भाषा को सपोर्ट नहीं किया जाता है, जैसा कि इस केस में हुआ, तो इसके बजाय कंटेंट को उन ह्यूमन रिव्यूअर्स को भेज दिया जाता है जो कई भाषाओं में काम करते हैं और वे Meta टेक्नोलॉजी द्वारा उपलब्ध कराए गए अनुवाद पर भरोसा करते हैं. इससे ये चिंताएँ उत्पन्न होती हैं कि असमर्थित भाषाओं के कंटेंट से किस तरह व्यवहार किया जाता है, शुरुआती रिव्यू के लिए कंपनी किन भाषाओं को सपोर्ट करती है और कई भाषाओं में काम करने वाले रिव्यूअर्स द्वारा उपलब्ध कराए गए अनुवाद की सटीकता क्या है.
ओवरसाइट बोर्ड का फ़ैसला
ओवरसाइट बोर्ड ने संबंधित कंटेंट को प्लेटफ़ॉर्म पर बनाए रखने के Meta के मूल फ़ैसले को पलट दिया है.
बोर्ड ने सुझाव दिया है कि Meta:
- नुकसान पहुँचाने में मदद करने और अपराध को बढ़ावा देने से जुड़ी पॉलिसी के “आउटिंग” पर शुरुआती रिव्यू में लागू होने वाले प्रतिबंध को अपडेट करके उसमें “आउटिंग-रिस्क ग्रुप्स” के विस्तृत उदाहरण शामिल करे. इन उदाहरणों में उन देशों के LGBTQIA+ लोग भी शामिल हों जहाँ समान लिंग वाले लोगों के बीच संबंधों को स्वीकार नहीं किया जाता और/या ऐसे प्रकटन से सुरक्षा संबंधी गंभीर खतरे होते हैं.
- नुकसान पहुँचाने में मदद करने और अपराध को बढ़ावा देने से जुड़े कम्युनिटी स्टैंडर्ड के तहत किसी आउटिंग-रिस्क ग्रुप के कथित सदस्य की पहचान या लोकेशन जाहिर होने के शुरुआती रिव्यू में लागू होने वाले प्रतिबंध के एन्फ़ोर्समेंट की सटीकता का आकलन करे.
- सुनिश्चित करे कि उसके भाषा पहचान सिस्टम उन भाषाओं के कंटेंट को सटीकता से पहचानें जिन्हें सपोर्ट नहीं किया जाता और उन रिव्यूअर्स के लिए ऐसे कंटेंट के सही अनुवाद प्रदान करें जिन्हें उस भाषा की समझ नहीं है.
- सुनिश्चित करे कि असमर्थित भाषाओं वाले कंटेंट को, भले ही उसमें समर्थित भाषा भी शामिल हो, ऐसे रिव्यू के लिए भेजा जाए जिनमें भाषा की जानकारी की ज़रूरत नहीं होती. इसमें रिव्यूअर्स को असमर्थित भाषा वाले कंटेंट को भाषा निरपेक्ष रिव्यू के लिए आगे भेजने का विकल्प देना शामिल है.
अधिक जानकारी के लिए
To read public comments for this case, click here.