यहूदियों के सर्वनाश से इंकार वाले केस में ओवरसाइट बोर्ड ने Meta के शुरुआती फ़ैसले को बदल दिया
23 जनवरी 2024
ओवरसाइट बोर्ड ने एक ऐसी Instagram पोस्ट को बनाए रखने के Meta के फ़ैसले को बदल दिया, जिसमें यहूदी नरसंहार के बारे में गलत और विकृत क्लेम किए गए हैं. बोर्ड ने पाया कि इस कंटेंट ने Meta की नफ़रत फैलाने वाली भाषा से जुड़े कम्युनिटी स्टैंडर्ड का उल्लंघन किया है, जो यहूदी नरसंहार होने की बात को नकारने को बैन करता है. यह प्रतिबंध, Meta की मानवाधिकार संबंधी ज़िम्मेदारियों के अनुरूप है. बोर्ड इस कंटेंट को हटाने में Meta की विफलता को लेकर चिंतित है और उसके कंपनी के एन्फ़ोर्समेंट की प्रभावकारिता के बारे में कुछ सवाल हैं. बोर्ड का सुझाव है कि Meta ज़रूरी कदम उठाकर पक्का करे कि वह यहूदी नरसंहार होने की बात को नकारने से जुड़े कंटेंट को लेकर अपने एन्फ़ोर्समेंट की सटीकता का और ज़्यादा बारीकी से सिस्टेमिक तरीके से मूल्यांकन कर रहा है.
केस की जानकारी
8 सितंबर, 2020 को, एक Instagram यूज़र ने स्क्विडवार्ड का एक मीम पोस्ट किया, जो कि SpongeBob SquarePants टेलीविज़न सीरीज़ का एक कार्टून कैरेक्टर है. इसमें एक स्पीच बबल शामिल था, जिसका शीर्षक “यहूदी नरसंहार के बारे में मनोरंजक तथ्य” था. इस बबल में यहूदी नरसंहार के बारे में गलत और विकृत क्लेम किए गए थे. अंग्रेज़ी भाषा में, इन क्लेम में यहूदी नरसंहार के पीड़ितों की संख्या पर सवाल उठाया गया है और यूज़र ने दूसरे विश्वयुद्ध से पहले और बाद की जो प्रस्तावित जनसंख्या बताई थी, उसके आधार पर यह कहा गया है कि साठ लाख यहूदियों का कत्ल संभव नहीं है. पोस्ट में यह क्लेम करके कि चिमनियाँ युद्ध के बाद बनाई गई थीं और यह कि उस समय के दुनिया भर के लीडरों ने अपनी जीवनियों में यहूदी नरसंहार को स्वीकार नहीं किया, ऑश्वित्ज के शमशान घाट के अस्तित्व पर सवाल भी उठाए गए.
यह कंटेंट पोस्ट किए जाने के कई सप्ताह बाद, 12 अक्टूबर, 2020 को, Meta ने यहूदी नरसंहार होने की बात को नकारने या उससे जुड़े तथ्यों में बदलाव करने को स्पष्ट रूप से निषिद्ध करने के लिए नफ़रत फैलाने वाली भाषा से जुड़े अपने कम्युनिटी स्टैंडर्ड को संशोधित किया.
इस कंटेंट को सितंबर 2020 में पोस्ट किए जाने के बाद, यूज़र्स ने Meta की नफ़रत फैलाने वाली भाषा से जुड़ी पॉलिसी का उल्लंघन करने के लिए छह बार इसकी रिपोर्ट की. इनमें से चार रिपोर्ट का रिव्यू Meta के ऑटोमेटेड सिस्टम ने किया था, जिन्होंने या तो इस कंटेंट को उल्लंघन नहीं करने वाला बताया या फिर कंपनी की COVID-19 ऑटोमेशन पॉलिसी के कारण इन रिपोर्ट को अपने आप बंद कर दिया. ये पॉलिसी, जिन्हें 2020 में वैश्विक महामारी की शुरुआत में प्रस्तुत किया गया था, ने ह्यूमन रिव्यूअर्स को भेजी जा रही रिपोर्ट की संख्या कम करने के लिए कुछ रिव्यू जॉब अपने आप बंद कर दिया जबकि संभावित रूप से “उच्च जोखिम” वाली रिपोर्ट को खुला रखा.
इनमें से दो यूज़र्स रिपोर्ट को ह्यूमन रिव्यूअर के पास भेजा गया, जिन्होंने इस कंटेंट को उल्लंघन नहीं करने वाला बताया. जब Meta ने अनाउंस किया कि वह अब यहूदी नरसंहार होने की बात को नकारने की परमिशन नहीं देगा, तो मई 2023 में पोस्ट की रिपोर्ट करने वाले यूज़र ने कंटेंट को बनाए रखने के कंपनी के फ़ैसले पर अपील की. हालाँकि, इस अपील को भी Meta की COVID-19 से संबंधित ऑटोमेशन पॉलिसी के कारण अपने आप बंद कर दिया गया था. ये पॉलिसी मई 2023 में भी लागू थीं. फिर उन्होंने ओवरसाइट बोर्ड के सामने अपील पेश की.
मुख्य निष्कर्ष
बोर्ड ने पाया कि इस कंटेंट ने Meta की नफ़रत फैलाने वाली भाषा से जुड़े कम्युनिटी स्टैंडर्ड का उल्लंघन किया है, जो Facebook और Instagram पर यहूदी नरसंहार होने की बात को नकारने को बैन करता है. बोर्ड ने जिन एक्सपर्ट से सलाह ली, उन्होंने कन्फ़र्म किया कि यहूदी नरसंहार के बारे में पोस्ट में किए गए क्लेम या तो पूरी तरह से गलत थे या उनमें ऐतिहासिक तथ्यों को गलत ढंग से पेश किया गया था. बोर्ड ने पाया कि यहूदी नरसंहार होने की बात को नकारने को बैन करने वाली Meta की पॉलिसी उसके मानवाधिकारों की ज़िम्मेदारी के अनुरूप है. इसके अतिरिक्त, बोर्ड इस बात को लेकर चिंतित है कि Meta ने ह्यूमन और ऑटोमेटेड रिव्यू होने के बावजूद भी यहूदी नरसंहार होने की बात को नकारने को स्पष्ट रूप से निषिद्ध करने वाली अपनी पॉलिसी को बदलने के बाद भी इस कंटेंट को नहीं हटाया.
इस फ़ैसले के हिस्से के रूप में, बोर्ड ने Meta के प्लेटफ़ॉर्म पर यहूदी नरसंहार होने की बात को नकारने वाले कंटेंट का मूल्यांकन किया, जिससे अलग-अलग तरह के यहूदीवाद-विरोधी वर्णन फैलाने के लिए स्क्विडवार्ड मीम फ़ॉर्मेट का उपयोग सामने आया. हालाँकि एक मूल्यांकन में अक्टूबर 2020 से ऐसे कंटेंट में बहुत ज़्यादा कमी देखी गई, जिनमें “होलोहोक्स” जैसे शब्दों का उपयोग किया गया था, लेकिन फिर भी यह पाया गया कि यहूदी नरसंहार होने की बात को नकारने वाले कंटेंट को हटाने में Meta ने देरी की. इस मूल्यांकन में दिखााया गया है कि यहूदी नरसंहार होने की बात को नकारने वाला कंटेंट अभी भी Meta के प्लेटफ़ॉर्म पर पाया जा सकता है. इसकी संभावित वजह यह है कि कुछ यूज़र्स वैकल्पिक तरह से एन्फ़ोर्समेंट से बच निकलने की कोशिश करते हैं, जैसे कि शब्दों में स्वरों को प्रतीकों से बदलकर या मीम और कार्टून का उपयोग करके यहूदी नरसंहार होने की बात को नकारने के बारे में अस्पष्ट वर्णन बनाना.
यहूदी नरसंहार होने की बात को नकारने को यहूदीवाद-विरोधी का एलिमेंट मानना महत्वपूर्ण है, जिसके परिणाम भेदभावपूर्ण होते हैं.
अपने प्लेटफ़ॉर्म से यहूदी नरसंहार होने की बात को नकारने से जुड़े कंटेंट को हटाने में Meta के मॉडरेशन सिस्टम की प्रभावकारिता और सटीकता के बारे में बोर्ड के कुछ सवाल हैं. Meta के ह्यूमन रिव्यूअर को एन्फ़ोर्समेंट डेटा को बारीकी से लेबल करने का मौका नहीं दिया गया (जैसे, उल्लंघन करने वाले कंटेंट को “यहूदी नरसंहार होने की बात को नकारने” के बजाए “नफ़रत फैलाने वाली भाषा” के रूप में लेबल करना). इस और पिछले केस में Meta से पूछे गए सवालों से मिली इनसाइट के आधार पर, बोर्ड समझता है कि अगर रिसोर्स बहुत ज़्यादा हों, तो ये चैलेंज तकनीकी रूप से बढ़ सकते हैं. Meta को एन्फ़ोर्समेंट डेटा को और ज़्यादा बारीकी से लेबल करने वाले सिस्टम बनाने चाहिए, खास तौर पर यहूदी नरसंहार होने की बात को नकारने से असली दुनिया में मिलने वाले परिणामों की दृष्टि में. क्लासिफ़ायर और ह्यूमन रिव्यूअर के लिए बेहतर ट्रेनिंग सामग्री उपलब्ध कराके इससे यहूदी नरसंहार होने की बात को नकारने वाले कंटेंट को मॉडरेट करने में कंपनी की सटीकता में बहुत ज़्यादा सुधार होगा. चूँकि कंटेंट को मॉडरेट करने के लिए Meta आर्टिफ़िशियल इंटेलिजेंस पर ज़्यादा भरोसा करने लगा है, इसलिए बोर्ड की यह जानने में दिलचस्पी है कि ऐसे सिस्टम डेवलप करने के प्रोसेस को ज़्यादा बारीकी से नफ़रत फैलाने वाली भाषा के और भी ज़्यादा सटीक एन्फ़ोर्समेंट को प्राथमिकता देने के लिए कैसे आकार दिया जा सकता है.
मई 2023 तक बोर्ड इस बात को लेकर भी चिंतित है कि Metaअभी भी COVID-19 ऑटोमेशन से जुड़ी पॉलिसी को लागू कर रहा था. बोर्ड के सवालों के जवाब में, Meta ने खुलासा कि उसने मई 2023 में इस कंटेंट को Instagram पर बनाए रखने के लिए अपने फ़ैसले के खिलाफ़ यूज़र की अपील को अपने आप बंद कर दिया था. यह वैश्विक महामारी के तीन साल बाद और उस समय के कुछ ही समय बाद हुआ था, जब विश्व स्वास्थ्य संगठन और अमेरिका, दोनों ने घोषित किया था कि COVID-19 अब “अंतरराष्ट्रीय रूप से चिंता करने लायक सार्वजनिक स्वास्थ्य आपातकाल” नहीं है. Meta के लिए नफ़रत फैलाने वाली भाषा को हटाने को प्राथमिकता देना बहुत ज़रूरी था और यह चिंताजनक है कि वैश्विक महामारी आकस्मिकता के रूप में पेश किए गए साधन, हालात सुधरने के इतने समय बाद भी बने हुए हैं.
ओवरसाइट बोर्ड का फ़ैसला
ओवरसाइट बोर्ड ने संबंधित कंटेंट को प्लेटफ़ॉर्म पर बनाए रखने के Meta के मूल फ़ैसले को पलट दिया है.
बोर्ड ने Meta को सुझाव दिया है कि वह:
- तकनीकी कदम उठाकर पक्का करे कि वह यहूदी नरसंहार होने की बात को नकारने वाले कंटेंट के अपने एन्फ़ोर्समेंट की सटीकता का पर्याप्त और सिस्टेमिक ढंग से मूल्यांकन कर रहा है, ताकि उसमें बारीक से बारीक जानकारी भी शामिल की जा सके.
- पब्लिक में कन्फ़र्म करें कि उसने वैश्विक महामारी के दौरान लागू की गई COVID-19 से जुड़ी सभी ऑटोमेशन पॉलिसी को पूरी तरह से हटा दिया है.
ज़्यादा जानकारी के लिए
इस केस का पूरा फ़ैसला पढ़ने के लिए यहाँ क्लिक करें.
इस केस में लोगों की ओर से आए कमेंट का सारांश पढ़ने के लिए, कृपया यहाँ क्लिक करें.