पलट जाना

चीनी कम्युनिस्ट पार्टी के बारे में कथन

एक यूज़र ने एक ऐसे Instagram कमेंट को हटाने के Meta के फ़ैसले के खिलाफ़ अपील की जिसमें चीनी कम्युनिस्ट पार्टी की “मौत” का आह्वान किया गया था.

निर्णय का प्रकार

सारांश

नीतियां और विषय

विषय
अभिव्यक्ति की स्वतंत्रता, विरोध, सरकारें
सामुदायिक मानक
हिंसा और उकसावा

क्षेत्र/देश

जगह
चीन

प्लैटफ़ॉर्म

प्लैटफ़ॉर्म
Instagram

संक्षिप्त फ़ैसलों में उन केसों का परीक्षण किया जाता है जिनमें बोर्ड द्वारा कंटेंट पर Meta का ध्यान आकर्षित के बाद कंपनी ने कंटेंट के बारे में अपने मूल फ़ैसले को पलटा है और इसमें Meta द्वारा मानी गई गलतियों की जानकारी होती है. उन्हें पूरे बोर्ड के बजाय, बोर्ड के किसी सदस्य द्वारा स्वीकृत किया जाता है, उनमें पब्लिक कमेंट शामिल नहीं होते और उन्हें बोर्ड द्वारा आगे के फ़ैसलों के लिए आधार नहीं बनाया जा सकता. संक्षिप्त फ़ैसले, Meta के फ़ैसलों में सीधे बदलाव लाते हैं, इन सुधारों के बारे में पारदर्शिता देते हैं और साथ ही यह बताते हैं कि Meta अपने एन्फ़ोर्समेंट में कहाँ सुधार कर सकता है.

सारांश

एक यूज़र ने एक ऐसे Instagram कमेंट को हटाने के Meta के फ़ैसले के खिलाफ़ अपील की जिसमें चीनी कम्युनिस्ट पार्टी की “मौत” का आह्वान किया गया था. जब बोर्ड ने Meta का ध्यान अपील पर आकर्षित किया, तो कंपनी ने अपना मूल फ़ैसला पलट दिया और पोस्ट को रीस्टोर कर दिया.

केस की जानकारी

मार्च 2024 में, Instagram के एक यूज़र ने एक कमेंट पोस्ट किया जिसमें कहा गया था कि “Death to the Chinese Communist Party!” (चीनी कम्युनिस्ट पार्टी को मौत आ जाए!) और उसके बाद खोपड़ी वाले इमोजी का उपयोग किया गया था. यूज़र ने ऐसा एक न्यूज़ आउटलेट के अकाउंट द्वारा की गई एक पोस्ट के जवाब में किया था जिसमें चीन के विदेश मंत्रालय के पूर्व प्रवक्ता वैंग वेनबिन का एक वीडियो था. वीडियो में वे अमेरिका के हाउस ऑफ़ रिप्रेजेंटेटिव में उस विधेयक के पारित होने की आलोचना कर रहे थे जिससे अमेरिका में TikTok की मौजूदगी पर असर पड़ सकता है.

Meta ने शुरुआत में अपने हिंसा और उकसावे से जुड़े कम्युनिटी स्टैंडर्ड के तहत Facebook से यूज़र की पोस्ट को हटा दिया. यह स्टैंडर्ड “हिंसा की धमकियों” को प्रतिबंधित करता है. कंपनी ने बताया कि प्रतिबंध में “मौत के ऐसे आह्वान शामिल हैं जिनमें टार्गेट और हिंसा के तरीके का उल्लेख किया गया हो.”

जब बोर्ड ने इस केस पर Meta का ध्यान दिलाया, तो कंपनी ने पाया कि कंमेंट को हटाने का उसका फ़ैसला गलत था और उसने कंटेंट को Instagram पर रीस्टोर कर दिया. Meta ने बताया कि, जैसा कि कंटेंट रिव्यूअर्स को दी गई उसकी आंतरिक गाइडलाइन में कहा गया है, चीनी कम्युनिस्ट पार्टी जैसी किसी संस्था की मौत के आह्वान को उल्लंघन करने वाला नहीं माना जाता है.

बोर्ड का प्राधिकार और दायरा

बोर्ड को उस यूज़र के अपील करने के बाद Meta के फ़ैसले का रिव्यू करने का अधिकार है, जिसका कंटेंट हटा दिया गया था (चार्टर अनुच्छेद 2, सेक्शन 1; उपनियम अनुच्छेद 3, सेक्शन 1).

जहाँ बोर्ड द्वारा रिव्यू किए जा रहे केस में Meta यह स्वीकार करता है कि उससे गलती हुई है और वह अपना फ़ैसला पलट देता है, वहाँ बोर्ड उस केस का चुनाव संक्षिप्त फ़ैसले के लिए कर सकता है (उपनियम अनुच्छेद 2, सेक्शन 2.1.3). बोर्ड, कंटेंट मॉडरेशन प्रोसेस के बारे में ज़्यादा जानकारी पाने, गलतियों में कमी लाने और Facebook, Instagram और Threads के यूज़र्स के लिए निष्पक्षता बढ़ाने के लिए मूल फ़ैसले का रिव्यू करता है.

केस की सार्थकता

यह केस इस बात को हाइलाइट करता है कि राजनैतिक संदर्भ में लाक्षणिक या आलंकारिक कथनों पर Meta अपनी हिंसा और उकसावे से जुड़ी पॉलिसी को एकसमान रूप से एन्फ़ोर्स नहीं करता. इससे राजनैतिक अभिव्यक्ति पर बुरा असर पड़ सकता है जो देशों और सरकारी संस्थाओं के लिए महत्वपूर्ण है. यह केस इस बात पर ज़ोर देता है कि Meta के मॉडरेशन सिस्टम बनाए जाते समय उसके लिए अभिव्यक्ति के टार्गेट (इस केस में एक राजनैतिक पार्टी) पर विचार करना महत्वपूर्ण है. साथ ही संस्थाओं की आलोचना करने के लिए लोगों द्वारा अतिशयोक्तिपूर्ण, आलंकारिक, व्यंगपूर्ण और ताने के रूप में उपयोग की गई अभिव्यक्ति के उपयोग पर भी विचार किया जाना चाहिए.

आलंकारिक बातचीत के बारे में, रूसी कविता केस में बोर्ड ने देखा कि कविता “Kill him!” के हिंसक भाषा वाले भागों को “दिमागी अवस्था की प्रेरणा के बजाय वर्णन” के रूप में पढ़ा जा सकता है. बोर्ड ने तय किया कि भाषा को यूज़र के मैसेज को अभिव्यक्त करने के आलंकारिक साधन के रूप में उपयोग किया गया था और यह कि परिणाम के रूप में कंटेंट के उस भाग को Meta की हिंसा और उकसावे की पॉलिसी के बारे में आंतरिक गाइडलाइन में परमिशन दी गई थी.

भले ही वहाँ इस केस की समस्या (हिंसा और उकसावा) के बजाय एक दूसरे कम्युनिटी स्टैंडर्ड (नफ़रत फैलाने वाली भाषा) का समाधान किया गया था, लेकिन म्यांमार बॉट फ़ैसला प्रासंगिक है क्योंकि वह देशों या राजनैतिक संस्थाओं पर की गई अभिव्यक्ति से भी जुड़ा है. वहाँ बोर्ड इस निष्कर्ष पर पहुँचा कि पोस्ट में उपयोग की गई अभद्र भाषा में लोगों की नस्ल, जातीयता या राष्ट्रीय मूल के आधार पर उन्हें निशाना नहीं बनाया गया था बल्कि उसमें एक देश को निशाना बनाया गया था, इसलिए उससे नफ़रत फैलाने वाली भाषा से जुड़े कम्युनिटी स्टैंडर्ड का उल्लंघन नहीं हुआ. बोर्ड ने इस बात पर ज़ोर दिया कि: “यह सुनिश्चित करना महत्वपूर्ण है कि सुरक्षित विशिष्टताओं के आधार पर लोगों को टार्गेट करने से जुड़े प्रतिबंधों को इस तरह नहीं समझा जाना चाहिए जो सरकारों या संस्थाओं को आलोचना से बचाए.”

बोर्ड ने पहले Meta से कहा है कि वह प्रासंगिक संदर्भ में कंटेंट के मूल्यांकन के लिए उचित प्रक्रियाएँ बनाए ( दो बटनवाला मीम, सुझाव क्र. 3). उसने यह भी सुझाव दिया है कि: “यूज़र्स को इस बात कि बेहतर जानकारी देने के लिए कि किस तरह के कथन प्रतिबंधित हैं, Meta को हिंसा और उकसावे से जुड़े अपने कम्युनिटी स्टैंडर्ड में ऐसे बदलाव करने चाहिए जो (i) ये बताए कि “X की मौत” जैसी आलंकारिक धमकियों की सामान्य तौर पर परमिशन है, बशर्ते धमकी का टार्गेट कोई ऐसा व्यक्ति न हो जिसे बहुत ज़्यादा जोखिम हो…” ( ईरान में विरोध प्रदर्शन का स्लोगन, सुझाव सं. 1); और “Meta को उस समय व्यापक परमिशन देने की ओर झुकाव रखना चाहिए जहाँ (i) कंटेंट से हिंसा भड़कने की आशंका न हो; (ii) संभावित रूप से उल्लंघन करने वाले कंटेंट को विरोध प्रदर्शन के संदर्भ में उपयोग किया गया हो; और (iii) जनहित वैल्यू बहुत ज़्यादा हो,” ( ईरान में विरोध प्रदर्शन का स्लोगन, सुझाव सं. 2).

Meta ने रिपोर्ट किया कि उसने “दो बटन” वाले मीम का सुझाव और ईरान में विरोध प्रदर्शन का स्लोगन केस के सुझाव सं. 2 को लागू कर दिया है, लेकिन उसने इसे दर्शाने वाली कोई जानकारी प्रकाशित नहीं की. ईरान में विरोध प्रदर्शन का स्लोगन केस के सुझाव सं. 1 के बारे में, बोर्ड के लिए Q4 2023 के तिमाही अपडेट में Meta ने कहा कि: “हमने अपने हिंसा और उकसावे से जुड़े कम्युनिटी स्टैंडर्ड को अपडेट करके इस बारे में ज़्यादा जानकारी शामिल की है कि कौन-सी बातें ‘धमकी’ के तहत आती हैं. साथ ही हमने टार्गेट के आधार पर अपने एन्फ़ोर्समेंट को अलग-अलग किया है. इस काम के भाग के रूप में, हमने अपने आंतरिक मार्गदर्शन में बदलाव किया है.”

बोर्ड मानता है कि इन सुझावों को पूरी तरह लागू करने से हिंसा और उकसावे से जुड़ी Meta की पॉलिसी के तहत एन्फ़ोर्समेंट की गलतियों की संख्या कम हो सकती है.

फ़ैसला

बोर्ड ने संबंधित कंटेंट को हटाने के Meta के मूल फ़ैसले को पलट दिया. बोर्ड द्वारा केस को Meta के ध्यान में लाए जाने के बाद, Meta द्वारा मूल फ़ैसले की गलती में किए गए सुधार को बोर्ड ने स्वीकार किया.

मामले के निर्णयों और नीति सलाहकार राय पर लौटें