पलट जाना
बलात्कार से जुड़ा कार्टून
एक यूज़र ने कार्टून से जुड़ी एक Facebook पोस्ट को बनाए रखने के Meta के फ़ैसले के खिलाफ़ अपील की. कार्टून में एक व्यक्ति दूसरे व्यक्ति बलात्कार करने के इरादे से नशीली वस्तु खिला रहा है.
संक्षिप्त फ़ैसलों में उन केसों का परीक्षण किया जाता है जिनमें बोर्ड द्वारा कंटेंट पर Meta का ध्यान आकर्षित के बाद कंपनी ने कंटेंट के बारे में अपने मूल फ़ैसले को पलटा है और इसमें Meta द्वारा मानी गई गलतियों की जानकारी होती है. उन्हें पूरे बोर्ड के बजाय, बोर्ड के किसी सदस्य द्वारा स्वीकृत किया जाता है, उनमें पब्लिक कमेंट शामिल नहीं होते और उन्हें बोर्ड द्वारा आगे के फ़ैसलों के लिए आधार नहीं बनाया जा सकता. संक्षिप्त फ़ैसले, Meta के फ़ैसलों में सीधे बदलाव लाते हैं, इन सुधारों के बारे में पारदर्शिता देते हैं और साथ ही यह बताते हैं कि Meta अपने एन्फ़ोर्समेंट में कहाँ सुधार कर सकता है.
सारांश
एक यूज़र ने कार्टून से जुड़ी एक Facebook पोस्ट को बनाए रखने के Meta के फ़ैसले के खिलाफ़ अपील की. कार्टून में एक व्यक्ति दूसरे व्यक्ति बलात्कार करने के इरादे से नशीली वस्तु खिला रहा है. जब बोर्ड ने Meta का ध्यान अपील पर आकर्षित किया, तो कंपनी ने अपना मूल फ़ैसला पलट दिया और पोस्ट को हटा दिया.
केस की जानकारी
अप्रैल 2024 में, मैक्सिको के एक यूज़र ने बलात्कार से जुड़े कार्टून वाली एक Facebook पोस्ट को फिर से शेयर किया. कार्टून में दो लोग एक घर में प्रवेश कर रह हैं. दोनों लोग पुरुष लग रहे हैं. घर में रहने वाला व्यक्ति माफ़ी माँगता है कि उनका घर अस्त-व्यस्त है लेकिन जब वे प्रवेश करते हैं, तो वह बिल्कुल साफ़-सुथरा लगता है. दूसरा व्यक्ति कहता है कि वे सिर्फ़ तभी सफ़ाई करते हैं जब उनकी संभोग करने की इच्छा होती है. घर में रहने वाला व्यक्ति कहता है “मैं भी ऐसा ही करता हूँ दोस्त” और वह दूसरे व्यक्ति के चेहरे को कपड़े से ढकता है और वह व्यक्ति छटपटाता है. पोस्ट के साथ मौजूद कैप्शन में कहा गया है “मुझे माफ़ करना मेरे दोस्त” और साथ में दुखी होने का इमोजी दिया गया है.
पोस्ट की रिपोर्ट करने वाले यूज़र ने बताया कि बलात्कार से जुड़े वे चुटकुले “मज़ेदार नहीं हैं” और यह कि “पुरुषों द्वारा इस बात की रिपोर्ट किए जाने की संभावना कम होती है कि उनके साथ बलात्कार हुआ है और ऐसा इस तरह की फ़ोटो के कारण होता है.”
Meta की वयस्क यौन शोषण पॉलिसी स्पष्ट रूप से “ऐसे कंटेंट को प्रतिबंधित करती है जो बिना सहमति का यौन स्पर्श दिखाता है, उसका समर्थन करता है या उसकी मज़ाक उड़ाता है” जिसमें “बिना सहमति के यौन स्पर्श के पीड़ितों या उस अवधारणा का मज़ाक उड़ाने वाला कंटेंट शामिल है.” संदर्भ के आधार पर Meta यह तय करता है कि सहमति थी या नहीं. इसमें बोले गए शब्द, शारीरिक हाव-भाव या अक्षमता शामिल है.
जब बोर्ड ने Meta का ध्यान इस केस की ओर आकर्षित किया, तो कंपनी ने पाया कि पोस्ट से वयस्क यौन शोषण पॉलिसी का उल्लंघन होता है और कंटेंट को बनाए रखने का उसका शुरुआती फ़ैसला गलत था. कंपनी ने फिर Facebook से कंटेंट को हटा दिया.
बोर्ड का प्राधिकार और दायरा
बोर्ड को उस यूज़र के अपील करने के बाद Meta के फ़ैसले का रिव्यू करने का अधिकार है, जिसने ऐसे कंटेंट की रिपोर्ट की जिसे तब छोड़ दिया गया था (चार्टर अनुच्छेद 2, सेक्शन 1; उपनियम आर्टिकल 3, सेक्शन 1).
जहाँ बोर्ड द्वारा रिव्यू किए जा रहे केस में Meta यह स्वीकार करता है कि उससे गलती हुई है और वह अपना फ़ैसला पलट देता है, वहाँ बोर्ड उस केस का चुनाव संक्षिप्त फ़ैसले के लिए कर सकता है (उपनियम अनुच्छेद 2, सेक्शन 2.1.3). बोर्ड, कंटेंट मॉडरेशन प्रोसेस के बारे में ज़्यादा जानकारी पाने, गलतियों में कमी लाने और Facebook, Instagram और Threads के यूज़र्स के लिए निष्पक्षता बढ़ाने के लिए मूल फ़ैसले का रिव्यू करता है.
केस की सार्थकता
यह केस Meta की वयस्क यौन शोषण पॉलिसी के एन्फ़ोर्समेंट की कमियाँ दर्शाता है. पिछले कई सालों में नागरिक समाज समूह, बलात्कार से जुड़े चुटकुलों या यौन हिंसा के पीड़ितों और उनसे बचने वालों से जुड़ी सामग्री के मामलों में Meta की पॉलिसीज़ के ज़रूरत से कम एन्फ़ोर्समेंट पर बार-बार चिंताएँ जाहिर की हैं. बोर्ड ने पहले चुटकुलों और हास्य की कोशिशों को सटीकता से मॉडरेट करते समय आने वाली कठिनाइयों का समाधान किया है. “दो बटन” वाला मीम फ़ैसले में, बोर्ड ने Meta से कहा कि वह पोस्ट का आकलन करते समय स्पष्ट चुटकुलों के कंटेंट और संदर्भ के सावधानीपूर्वक मूल्यांकन को महत्व दे. “दो बटन” वाला मीम फ़ैसला व्यंगात्मक कंटेंट से जुड़ा था जिसे गलती से हटा दिया गया, जबकि यह केस उन गलतियों को दर्शाता है जो चुटकुलों के रूप में प्रस्तुत पोस्ट को गंभीरता से न लेने पर हुईं और जिनके परिणामस्वरूप उन पोस्ट को प्लेटफ़ॉर्म पर बनाए रखा गया. जैसा कि अब Meta सहमत है, यह पोस्ट, जो होमोफ़ोबिक (समलैंगिकों के प्रति नफ़रत) विचार पर आधारित है और इसमें हिंसक यौन हमले का मज़ाक उड़ाया गया है, स्पष्ट रूप से वयस्क यौन शोषण पॉलिसी का उल्लंघन करती है. इस तरह के केसों में गलतियों की उच्च संभावना को देखते हुए, बोर्ड ने Meta को यह सुझाव दिया कि उसकी प्रक्रियाओं में पर्याप्त रूप से “उन स्थितियों के लिए जाँच या एस्केलेशन के अवसर शामिल हों जहाँ मॉडरेटर किसी मीम के व्यंगात्मक होने या न होने के प्रति आश्वस्त न हों” ( “दो बटन” वाला मीम फ़ैसला, सुझाव सं. 3). Meta ने रिपोर्ट किया कि उसने इस सुझाव को लागू कर दिया है लेकिन उसने यह दिखाने के लिए कोई जानकारी प्रकाशित नहीं की है.
बोर्ड ने Meta द्वारा एन्फ़ोर्समेंट में की गलतियों की संख्या कम करने के लिए भी सुझाव दिए हैं. बोर्ड ने Meta से कहा है कि “एन्फ़ोर्समेंट की गलतियों को पलटने और उनसे सीखने के लिए एक आंतरिक ऑडिट प्रोसेस बनाए जिसमें ऑटोमेटेड साधनों से हटाए कंटेंट के सांख्यिकीय प्रतिनिधि नमूने का लगातार विश्लेषण किया जाए,” ( ब्रेस्ट कैंसर के लक्षण और नग्नता, सुझाव सं. 5). Meta ने अपने जवाब में सुझाव की भाषा बदल दी और बोर्ड के सुझाव का लक्ष्य पूरा नहीं किया. बोर्ड ने बार-बार इस बात के महत्व पर भी ज़ोर दिया कि Meta संभावित रूप से ऐसे नुकसानदेह कंटेंट के सटीक आकलन की अपनी क्षमता को बेहतर बनाने के लिए अतिरिक्त रिसोर्स लगाए जिनमें व्यवस्थागत समस्याओं की आलोचना की गई हो या उन्हें विधिसम्मत ठहराया गया हो. इनमें भारत में यौन उत्पीड़न और लिंग-आधारित हिंसा की फ़ोटो फ़ैसलों में चर्चित लिंग आधारित और यौन हिंसा के केस शामिल हैं.
फ़ैसला
बोर्ड ने संबंधित कंटेंट को प्लेटफ़ॉर्म पर बनाए रखने के Meta के मूल फ़ैसले को पलट दिया है. बोर्ड द्वारा केस को Meta के ध्यान में लाए जाने के बाद, Meta द्वारा मूल फ़ैसले की गलती में किए गए सुधार को बोर्ड ने स्वीकार किया.