पलट जाना
समलैंगिक युगल पर काल्पनिक हमला
एक यूज़र ने Facebook पर एक ऐसी पोस्ट को बनाए रखने के Meta के फ़ैसले के खिलाफ़ अपील की जिसमें एक-दूसरे का हाथ थामे समलैंगिक युगल पर काल्पनिक शारीरिक हमला दिखाया गया था और कैप्शन में हिंसा का आह्वान किया गया था.
यह संक्षिप्त फ़ैसला है. संक्षिप्त फ़ैसलों में उन केसों का परीक्षण किया जाता है जिनमें बोर्ड द्वारा कंटेंट पर Meta का ध्यान आकर्षित के बाद कंपनी ने कंटेंट के बारे में अपने मूल फ़ैसले को पलटा है. इन फ़ैसलों में उन गलतियों की जानकारी होती है जिन्हें Meta ने स्वीकार किया है और इनमें लोगों को यह जानकारी दी जाती है कि बोर्ड के काम का क्या असर पड़ता है. उन्हें बोर्ड के सदस्यों की पैनल द्वारा स्वीकार किया गया है, न कि पूरे बोर्ड द्वारा. उनमें सार्वजनिक कमेंट प्रोसेस शामिल नहीं होती और बोर्ड आगे के फ़ैसलों के लिए उन्हें आधार भी नहीं बनाता है. संक्षिप्त फ़ैसले, Meta के सुधारों के बारे में पारदर्शिता देते हैं और यह बताते हैं कि पॉलिसी के एन्फ़ोर्समेंट के संबंध में कंपनी कहाँ सुधार कर सकती है.
केस का सारांश
एक यूज़र ने Facebook पर एक ऐसी पोस्ट को बनाए रखने के Meta के फ़ैसले के खिलाफ़ अपील की जिसमें एक-दूसरे का हाथ थामे समलैंगिक युगल पर काल्पनिक शारीरिक हमला दिखाया गया था और कैप्शन में हिंसा का आह्वान किया गया था. यह केस Meta की नफ़रत फैलाने वाली भाषा से जुड़ी पॉलिसी के एन्फ़ोर्समेंट में गलतियाँ हाइलाइट करता है. जब बोर्ड ने Meta का ध्यान अपील पर आकर्षित किया, तो कंपनी ने अपना मूल फ़ैसला पलट दिया और पोस्ट को हटा दिया.
केस की जानकारी और बैकग्राउंड
जुलाई 2023 में Facebook के एक यूज़र ने 30 सेकंड की एक वीडियो क्लिप पोस्ट की जो स्क्रिप्ट के साथ कलाकारों द्वारा बनाई गई लगती थी. क्लिप में लोग एक समलैंगिक युगल को पीट रहे हैं और लातें मार रहे हैं. वीडियो में आगे दिखाया गया है कि धार्मिक कपड़े पहने लोगों का एक अन्य ग्रुप उस लड़ाई की तरफ़ बढ़ता है. कुछ सेकंड बाद, यह ग्रुप भी लड़ाई में शामिल हो जाता है और युगल पर हमला करता है. वीडियो अंग्रेज़ी भाषा के इस वाक्य से समाप्त होता है: “Do your part this pride month.” (इस प्राइड मंथ में अपने हिस्से का काम करें.) अंग्रेज़ी भाषा में ही दिए गए कैप्शन में कहा गया है कि “Together we can change the world.” (साथ मिलकर हम दुनिया बदल सकते हैं.) पोस्ट को लगभग 200,000 बार देखा गया और 50 से कम बार इसकी रिपोर्ट की गई.
Meta के अनुसार: “नफ़रत फैलाने वाली भाषा से जुड़ी हमारी पॉलिसी, सेक्शुअल ओरिएंटेशन सहित सुरक्षित विशिष्टताओं के आधार पर लोगों के खिलाफ़ कॉल टू एक्शन और नुकसान का समर्थन या हिमायत करने वाले कथनों को प्रतिबंधित करती है.” पोस्ट में शामिल वीडियो और कैप्शन एक सुरक्षित विशिष्टता के खिलाफ़ हिंसा का समर्थन करते हैं. इस सुरक्षित विशिष्टता को हाथ थामे दो पुरुषों और प्राइड मंथ के रेफ़रेंस से स्पष्ट रूप से दर्शाया गया है. इसलिए, कंटेंट Meta की नफ़रत फैलाने वाली भाषा से जुड़ी पॉलिसी का उल्लंघन करता है.
Meta ने शुरुआत में कंटेंट को Facebook पर बनाए रखा था. बोर्ड द्वारा इस केस को Meta के ध्यान में लाए जाने के बाद, कंपनी ने पाया कि कंटेंट से कम्युनिटी स्टैंडर्ड का उल्लंघन हुआ है और उसने कंटेंट को हटा दिया.
बोर्ड का प्राधिकार और दायरा
बोर्ड को उस व्यक्ति की अपील मिलने के बाद Meta के फ़ैसले का रिव्यू करने का अधिकार है, जिसने उस कंटेंट की रिपोर्ट की जिसे तब छोड़ दिया गया था (चार्टर अनुच्छेद 2, सेक्शन 1; उपनियम अनुच्छेद 3, सेक्शन 1).
जहाँ बोर्ड द्वारा रिव्यू किए जा रहे केस में Meta यह स्वीकार करता है कि उससे गलती हुई है और वह अपना फ़ैसला पलट देता है, वहाँ बोर्ड उस केस का चुनाव संक्षिप्त फ़ैसले के लिए कर सकता है (उपनियम अनुच्छेद 2, सेक्शन 2.1.3). बोर्ड कंटेंट मॉडरेशन प्रोसेस के बारे में ज़्यादा जानकारी पाने, गलतियाँ कम करने और Facebook और Instagram के यूज़र्स के लिए निष्पक्षता बढ़ाने के लिए मूल फ़ैसले का रिव्यू करता है.
केस का महत्व
यह केस Meta की नफ़रत फैलाने वाली भाषा से जुड़ी पॉलिसी के एन्फ़ोर्समेंट में गलतियाँ हाइलाइट करता है. इस केस में शामिल कंटेंट में ऐसे कई संकेत मौजूद थे जो बता रहे थे कि यूज़र सुरक्षित विशिष्टता वाले एक ग्रुप के खिलाफ़ हिंसा की हिमायत कर रहा था. एक-दूसरे का हाथ थामे दो पुरुषों पर शारीरिक हमला के विज़ुअल चित्रण से इसे दिखाया गया था. वीडियो के अंत में दिए गए टेक्स्ट में यूज़र्स से कहा गया था कि प्राइड मंथ में वे भी “अपने हिस्से का काम करें.” मॉइरेशन में इस तरह की गलतियों से सुरक्षित विशिष्टता वाले ग्रुप पर बुरा असर पड़ सकता है. बोर्ड ने नोट किया कि इस कंटेंट को रिपोर्ट उस माह में कई बार की गई थी जिसे LGBTQIA+ लोगों के लिए जश्न का माह माना जाता है और वैसे भी, इस बारे में जागरूकता का स्तर पहले ही ऊँचा होना चाहिए था और कंटेंट मॉडरेशन की प्रोसेस ज़्यादा सुदृढ़ होनी चाहिए थी.
पहले, बोर्ड ने Meta की नफ़रत फैलाने वाली भाषा से जुड़ी पॉलिसी के एन्फ़ोर्समेंट को बेहतर बनाने के लिए सुझाव दिए थे. ख़ास तौर पर बोर्ड ने सुझाव दिया कि “Meta को नफ़रत फैलाने वाली भाषा से जुड़े कम्युनिटी स्टैंडर्ड और रिव्यूअर्स को उसके बारे में दिए जाने वाले गाइडेंस में यह समझाते हुए स्पष्ट करना चाहिए कि संरक्षित समूह के बारे में ऐसे अप्रत्यक्ष संदर्भ देना भी पॉलिसी के खिलाफ़ है, जब वह संदर्भ उचित रूप से समझ आ रहा हो” ( क्निन कार्टून फ़ैसला, सुझाव सं. 1). Meta द्वारा इस सुझाव का आंशिक क्रियान्वयन, प्रकाशित जानकारी द्वारा दिखाया गया है. बोर्ड ने इस सुझाव को फिर से हाइलाइट किया और Meta से कहा कि नफ़रत फैलाने वाली भाषा से जुड़े कंटेंट को मॉडरेट करने में होने वाली गलतियों की दर को कम करने के लिए इन चिंताओं का समाधान किए जाने की ज़रूरत है.
फ़ैसला
बोर्ड ने संबंधित कंटेंट को प्लेटफ़ॉर्म पर बनाए रखने के Meta के मूल फ़ैसले को पलट दिया है. बोर्ड द्वारा केस को कंपनी के ध्यान में लाए जाने के बाद, Meta द्वारा मूल फ़ैसले की गलती में किए गए सुधार को बोर्ड ने स्वीकार किया. बोर्ड ने Meta से यह भी कहा कि वह ऐसी गलतियों को कम करने के लिए उन सुझावों को अमल में लाने के काम में तेज़ी लाए जिन पर अभी तक काम नहीं किया गया है.