ओवरसाइट बोर्ड ने ट्रांसजेंडर लोगों को टार्गेट करने वाली पोलिश भाषा में की गई पोस्ट से जुड़े केस में Meta के शुरुआती फ़ैसले को बदल दिया है
16 जनवरी 2024
ओवरसाइट बोर्ड ने एक ऐसी Facebook पोस्ट को बनाए रखने के Meta के मूल फ़ैसले को पलट दिया जिसमें यूज़र ने ट्रांसजेंडर लोगों को हिंसा फैलाने वाली भाषा से टार्गेट करते हुए कहा कि इस ग्रुप के लोगों को आत्महत्या कर लेनी चाहिए. बोर्ड ने पाया कि इस पोस्ट से नफ़रत फैलाने वाली भाषा और आत्महत्या और खुद को चोट पहुँचाने से जुड़ी पॉलिसी का उल्लंघन होता है. हालाँकि, इस केस की मौलिक समस्या पॉलिसी की नहीं, बल्कि उनके एन्फ़ोर्समेंट की है. पोस्ट में नुकसानदेह कंटेंट की मौजूदगी के कई सिग्नलों के बावजूद, एन्फ़ोर्समेंट के बारे में सही कार्रवाई करने में Meta की बार-बार विफलता से बोर्ड इस नतीजे पर पहुँचा कि कंपनी, LGBTQIA+ की सुरक्षा के संबंध में अपने आदर्शों के अनुसार काम नहीं कर रही है. बोर्ड ने Meta से कहा कि वह रिव्यूअर्स को दिए जाने वाले आंतरिक मार्गदर्शन को बेहतर बनाते हुए एन्फ़ोर्समेंट की इन कमियों को दूर करे.
केस की जानकारी
अप्रैल 2023 में, पोलैंड के एक Facebook यूज़र ने ट्रांसजेंडर फ़्लैग के नीले, गुलाबी और सफ़ेद रंगों वाले एक पट्टीदार पर्दे की फ़ोटो पोस्ट की. इसके साथ पोलिश भाषा में लिखा गया था “नई टेक्नोलॉजी … पर्दे जो खुद ही लटक जाते हैं” और उसके ऊपर लिखा था “बसंत ऋतु की सफ़ाई
अप्रैल और मई 2023 के दौरान, पोस्ट के खिलाफ़ 11 अलग-अलग यूज़र्स ने कुल 12 बार रिपोर्ट की. 12 में से सिर्फ़ दो रिपोर्ट को Meta के ऑटोमेटेड सिस्टमों द्वारा ह्यूमन रिव्यू के लिए प्राथमिकता दी गई और अन्य सभी को बंद कर दिया गया. जिन दो पोस्ट को Facebook की आत्महत्या और खुद को चोट पहुँचाने से जुड़े स्टैंडर्ड के संभावित उल्लंघन के लिए ह्यूमन रिव्यू के लिए भेजा गया था, उन्हें उल्लंघन नहीं करने वाला पाया गया. नफ़रत फैलाने वाली भाषा पर आधारित किसी भी रिपोर्ट को ह्यूमन रिव्यू के लिए नहीं भेजा गया.
तीन यूज़र्न ने फिर Facebook पोस्ट को बनाए रखने के Meta के फ़ैसले के खिलाफ़ अपील की जिनमें से एक अपील के परिणामस्वरूप एक ह्यूमन रिव्यूअर ने आत्महत्या और खुद को चोट पहुँचाने से जुड़े कम्युनिटी स्टैंडर्ड के आधार पर मूल फ़ैसले को कायम रखा. इस बार भी, नफ़रत फैलाने वाली भाषा से जुड़े कम्युनिटी स्टैंडर्ड के तहत की गई अन्य अपीलों को ह्यूमन रिव्यू के लिए नहीं भेजा गया. अंत में, इस कंटेंट की मूल रूप से रिपोर्ट करने वाले यूज़र्स में से एक ने बोर्ड से अपील की. बोर्ड द्वारा इस केस का चयन किए जाने के बाद, Meta ने पाया कि पोस्ट से उसकी नफ़रत फैलाने वाली भाषा और आत्महत्या और खुद को चोट पहुँचाने से जुड़ी पॉलिसी का उल्लंघन होता है और उसने पोस्ट को Facebook से हटा दिया. इसके अलावा, कंपनी ने पिछले कई उल्लंघनों के कारण कंटेंट पोस्ट करने वाले यूज़र के अकाउंट को बंद कर दिया.
मुख्य निष्कर्ष
बोर्ड ने पाया कि कंटेंट से Meta की नफ़रत फैलाने वाली भाषा से जुड़ी पॉलिसी का उल्लंघन होता है क्योंकि इसमें आत्महत्या द्वारा एक सुरक्षित विशिष्टता वाले ग्रुप की मृत्यु के आह्वान के रूप में “हिंसा फैलाने वाली भाषा” शामिल है. पोस्ट में ट्रांसजेंडर लोगों के लिए आत्महत्या की वकालत की गई है जिससे डर और बहिष्कार का माहौल बना और उससे जान-माल का नुकसान हो सकता था. टेक्स्ट और फ़ोटो की प्रकृति को देखते हुए, पोस्ट ने ट्रांसजेंडर कम्युनिटी द्वारा झेले जा रहे मानसिक स्वास्थ्य के संकट को भी बढ़ाया. गे एंड लेस्बियन अलायंस अगेंस्ट डीफ़ेमेशन (GLAAD) की एक हालिया रिपोर्ट में कहा गया है कि ऑनलाइन “गालियों और नफ़रत वाले लगातार व्यवहार से ट्रांसजेंडर्स को गहरा मनोवैज्ञानिक आघात” लगा है. पोलैंड में LGBTQIA+ कम्युनिटी द्वारा झेले जा रहे ऑनलाइन और ऑफ़लाइन नुकसान, जिसमें प्रभावशाली सरकारी और सार्वजनिक हस्तियों द्वारा हमले और राजनीतिक रूप से अलंकारपूर्ण भाषा शामिल है, के व्यापक संदर्भ में अपने निष्कर्ष में बोर्ड को इससे अतिरिक्त मदद मिली.
बोर्ड इस बात से चिंतित है कि Meta के ह्यूमन रिव्यूअर्स को संदर्भ से जुड़े ये संकेत समझ नहीं आए. आत्महत्या के बढ़े हुए जोखिम (“पर्दे जो खुद ही लटक जाते हैं”) और ग्रुप की मृत्यु के समर्थन (“बसंत ऋतु की सफ़ाई”) का पोस्ट में दिया गया संदर्भ, नफ़रत फैलाने वाली भाषा से जुड़े कम्युनिटी स्टैंडर्ड का स्पष्ट उल्लंघन था. कंटेंट क्रिएटर द्वारा खुद को ट्रांसजेंडर्स से नफ़रत करने वाला बताया जाना ही अपने आप में एक अन्य उल्लंघन है. बोर्ड ने Meta से कहा कि वह LGBTQIA+ लोगों के प्रति नफ़रत फैलाने वाली भाषा के एन्फ़ोर्समेंट के संबंध में अपनी सटीकता बढ़ाए, ख़ास तौर पर जब पोस्ट में ऐसी फ़ोटो और टेक्स्ट हो जिन्हें समझने के लिए संदर्भ की ज़रूरत पड़े. इस केस में आत्महत्या के कुछ हद तक कोड किए गए संदर्भ और साथ में संरक्षित ग्रुप के विज़ुअल चित्रण (ट्रांसजेंडर का फ़्लैग) ने साथ मिलकर “नुकसानदेह रचनात्मकता” का निर्माण किया. इससे पता चलता है कि गलत इरादों वाले लोग, LGBTQIA+ कम्युनिटी को पोस्ट और मीम के ज़रिए टार्गेट करने के नए-नए तरीके अपना रहे हैं जिन्हें वे “हास्यकर या व्यंग्यात्मक” बताते हैं, लेकिन वास्तव में उनका उद्देश्य नफ़रत फैलाना या उत्पीड़न करना होता है.
इसके अलावा, बोर्ड, Meta के इस कथन से चिंतित है कि कंटेंट को हटाने में ह्यूमन रिव्यूअर्स की विफलता, उसकी आंतरिक गाइडलाइन के कठोर उपयोग को देखते हुए सही है. इससे पता चलता है कि Meta का आंतरिक मार्गदर्शन इस तथ्य को पर्याप्त रूप से कैप्चर नहीं करता कि किस तरह टेक्स्ट और फ़ोटो, किसी ग्रुप के सदस्यों की लैंगिक पहचान द्वारा परिभाषित ग्रुप को दर्शाने के लिए इंटरैक्ट कर सकते हैं.
इस पोस्ट से Facebook के आत्महत्या और खुद को चोट पहुँचाने से जुड़े कम्युनिटी स्टैंडर्ड का स्पष्ट उल्लंघन भी हुआ है, इसलिए बोर्ड ने पाया कि इस पॉलिसी को ज़्यादा स्पष्ट रूप से ऐसे कंटेंट को प्रतिबंधित करना चाहिए जो लोगों के पहचाने जाने लायक ग्रुप के एक व्यक्ति के बजाय पूरे ग्रुप के लिए आत्महत्या को बढ़ावा देता है.
इस केस में, रिव्यू को प्राथमिकता देने वाले Meta के ऑटोमेटेड सिस्टम से एन्फ़ोर्समेंट पर अत्यधिक प्रभाव पड़ा, जिसमें यह शामिल है कि एक ही कंटेंट की कई रिपोर्ट पर कंपनी क्या कार्रवाई करती है. Meta “रिव्यूअर के फ़ैसलों और एन्फ़ोर्समेंट की कार्रवाइयों में एकरूपता सुनिश्चित करने” के लिए इन रिपोर्ट को मॉनीटर करता और उन्हें डीडुप्लिकेट करता (हटाता) है. रिपोर्ट को अपने आप बंद करने के लिए दिए गए अन्य कारणों में कंटेंट की कम गंभीरता और उनका कम वायरल होने (कंटेंट को देखे जाने की संख्या) का स्कोर शामिल है, जिनके कारण उन्हें ह्यूमन रिव्यू में प्राथमिकता नहीं दी गई. इस केस में, बोर्ड यह मानता है कि गंभीरता के स्कोर का निर्धारण करते समय एक प्रासंगिक सिग्नल के रूप में यूज़र की बायोग्राफ़ी पर भी विचार किया जा सकता था.
बोर्ड मानता है कि Meta को ऐसे क्लासिफ़ायर के निर्माण में ज़्यादा निवेश करना चाहिए जिनसे LGBTQIA+ कम्युनिटी पर असर डालने वाले संभावित रूप से उल्लंघनकारी कंटेंट की पहचान की जा सके और उसे लैंगिक पहचान से जुड़े नुकसानों के बारे में ह्यूमन रिव्यूअर्स को और बेहतर ट्रेनिंग देनी चाहिए.
ओवरसाइट बोर्ड का फ़ैसला
ओवरसाइट बोर्ड ने संबंधित कंटेंट को प्लेटफ़ॉर्म पर बनाए रखने के Meta के मूल फ़ैसले को पलट दिया है.
बोर्ड ने Meta को सुझाव दिया है कि वह:
- आत्महत्या और खुद को चोट पहुँचाने से जुड़ी अपनी पॉलिसी में यह स्पष्ट करे कि पॉलिसी ऐसे कंटेंट को निषिद्ध करती है जिसमें लोगों के किसी पहचाने जाने लायक ग्रुप पर लक्षित आत्महत्या को बढ़ावा दिया जाता है या उन्हें आत्महत्या करने के लिए प्रेरित किया जाता है.
- शुरुआती रिव्यू करने वाले रिव्यूअर्स को दिए जाने वाले आंतरिक मार्गदर्शन में यह सुनिश्चित करने के लिए बदलाव करे कि लैंगिक पहचान के फ़्लैग आधारित ऐसे विज़ुअल चित्रण जिनमें कोई मनुष्य शामिल न हो, उन्हें उसके सदस्यों की लैंगिक पहचान द्वारा परिभाषित ग्रुप का प्रतिनिधित्व समझा जाए.
ज़्यादा जानकारी के लिए
इस केस का पूरा फ़ैसला पढ़ने के लिए यहाँ क्लिक करें.
इस केस में लोगों की ओर से आए कमेंट का सारांश पढ़ने के लिए, कृपया यहाँ क्लिक करें.