पलट जाना

रोहिंग्या लोगों पर हिंसा की धमकी

एक यूज़र ने एक Facebook पोस्ट पर एक कमेंट को बनाए रखने के Meta के फ़ैसले के खिलाफ़ अपील की. इस कमेंट में दावा किया गया था रोहिंग्या लोग अशांति पैदा करते हैं और वे “चालबाज़” होते हैं. कमेंट में उन लोगों के खिलाफ़ नियंत्रणकारी उपाय करने का आह्वान भी किया गया.

निर्णय का प्रकार

सारांश

नीतियां और विषय

विषय
अधिकारहीन कम्युनिटी, जाति और नस्ल, युद्ध और मतभेद
सामुदायिक मानक
हिंसा और उकसावा

क्षेत्र/देश

जगह
म्यांमार

प्लैटफ़ॉर्म

प्लैटफ़ॉर्म
Facebook

संक्षिप्त फ़ैसलों में उन केसों का परीक्षण किया जाता है जिनमें बोर्ड द्वारा कंटेंट पर Meta का ध्यान आकर्षित के बाद कंपनी ने कंटेंट के बारे में अपने मूल फ़ैसले को पलटा है और इसमें Meta द्वारा मानी गई गलतियों की जानकारी होती है. उन्हें पूरे बोर्ड के बजाय, बोर्ड के किसी सदस्य द्वारा स्वीकृत किया जाता है, उनमें पब्लिक कमेंट शामिल नहीं होते और उन्हें बोर्ड द्वारा आगे के फ़ैसलों के लिए आधार नहीं बनाया जा सकता. संक्षिप्त फ़ैसले, Meta के फ़ैसलों में सीधे बदलाव लाते हैं, इन सुधारों के बारे में पारदर्शिता देते हैं और साथ ही यह बताते हैं कि Meta अपने एन्फ़ोर्समेंट में कहाँ सुधार कर सकता है.

सारांश

एक यूज़र ने एक Facebook पोस्ट पर एक कमेंट को बनाए रखने के Meta के फ़ैसले के खिलाफ़ अपील की. इस कमेंट में दावा किया गया था रोहिंग्या लोग अशांति पैदा करते हैं और वे “चालबाज़” होते हैं. कमेंट में उन लोगों के खिलाफ़ नियंत्रणकारी उपाय करने और उनके “पूरी तरह खात्मे” का आह्वान भी किया गया. यह केस कंपनी की हिंसा और उकसावे से जुड़ी पॉलिसी के ज़रूरत से कम एन्फ़ोर्समेंट की बार-बार होने वाली समस्या हाइलाइट करता है, खास तौर पर कमज़ोर समूहों को मिलने वाली धमकियों के संबंध में. जब बोर्ड ने Meta का ध्यान अपील पर आकर्षित किया, तो कंपनी ने अपना मूल फ़ैसला पलट दिया और पोस्ट को हटा दिया.

केस की जानकारी

जनवरी 2024 में, Facebook के एक यूज़र ने म्यांमार के रोहिंग्या लोगों से जुड़ी पोस्ट पर कमेंट किया. कमेंट में मलोत्सर्ग करते सुअर की फ़ोटो के ऊपर एक कैप्शन शामिल किया गया था. कैप्शन में, यूज़र ने लिखा कि “यह समूह” (रोहिंग्या के संदर्भ में) “चालबाज़” है जिनके कारण “लगातार कई तरह की सामाजिक समस्याएँ होती रहती हैं.” कैप्शन में यह तर्क दिया गया कि रोहिंग्या लोगों को “कुलचने” की कार्रवाई करके म्यांमार सरकार ने सही कदम उठाया है और यूज़र ने कहा कि “राष्ट्रीय सुरक्षा और कल्याण” के लिए उन्हें “धरती से पूरी तरह मिटा” दिया जाना चाहिए.

बोर्ड को दिए गए अपने कथन में, अपील करने वाले यूज़र ने लिखा कि वे म्यांमार में रहते हैं और उन्होंने इस बात पर असंतोष जाहिर किया कि इस केस जैसे नरसंहार के आह्वान के कमेंट के खिलाफ़ Meta पर्याप्त कार्रवाई नहीं करता है. उन्होंने बताया कि रोहिंग्या लोगों के खिलाफ़ नफ़रत फैलाने वाली भाषा को असरदार रूप से मॉडरेट करने में Meta की नाकामी से उपजी ऑफ़लाइन हिंसा के वे किस तरह गवाह बने और किस तरह रोहिंग्या लोग शरणार्थी शिविरों में सड़ रहे हैं.

Meta की हिंसा और उकसावे से जुड़ी पॉलिसी के अनुसार, कंपनी “हिंसा की ऐसी धमकियों को प्रतिबंधित करती है, जिनसे किसी की जान जा सकती है (या अन्य तरह की बहुत गंभीर हिंसा हो सकती है).” यूज़र द्वारा Meta को अपील किए जाने के बाद, कंपनी ने शुरुआत में कंटेंट को प्लेटफ़ॉर्म पर बनाए रखा.

जब बोर्ड द्वारा इस केस को Meta के ध्यान में लाया गया तो कंपनी ने पाया कि कमेंट में “रोहिंग्या लोगों को धरती से ‘मिटाने’ की बात कहकर घातक हिंसा की वकालत की गई है” और इसलिए यह हिंसा और उकसावे से जुड़े कम्युनिटी स्टैंडर्ड का उल्लंघन करता है. कंपनी ने फिर प्लेटफ़ॉर्म से कंटेंट को हटा दिया.

बोर्ड का प्राधिकार और दायरा

बोर्ड को उस यूज़र के अपील करने के बाद Meta के फ़ैसले का रिव्यू करने का अधिकार है, जिसने ऐसे कंटेंट की रिपोर्ट की जिसे तब छोड़ दिया गया था (चार्टर अनुच्छेद 2, सेक्शन 1; उपनियम अनुच्छेद 3, सेक्शन 1).

जहाँ बोर्ड द्वारा रिव्यू किए जा रहे केस में Meta यह स्वीकार करता है कि उससे गलती हुई है और वह अपना फ़ैसला पलट देता है, वहाँ बोर्ड उस केस का चुनाव संक्षिप्त फ़ैसले के लिए कर सकता है (उपनियम अनुच्छेद 2, सेक्शन 2.1.3). बोर्ड, कंटेंट मॉडरेशन प्रोसेस के बारे में ज़्यादा जानकारी पाने, गलतियों में कमी लाने और Facebook, Instagram और Threads के यूज़र्स के लिए निष्पक्षता बढ़ाने के लिए मूल फ़ैसले का रिव्यू करता है.

केस की सार्थकता

यह केस रोहिंग्या लोगों के खिलाफ़ हिंसक और उत्तेजक अलंकारपूर्ण भाषा के बारे में ज़रूरत से कम एन्फ़ोर्समेंट की Meta द्वारा बार-बार की जाने वाली गलतियों को हाइलाइट करता है. यह एक अच्छी तरह ज्ञात और बार-बार होने वाली समस्या है: 2018 में Meta ने यह देखने के लिए एक स्वतंत्र मानवाधिकार आकलन करवाया था कि रोहिंग्या लोगों के खिलाफ़ गलत जानकारी फैलाने वाले कैंपेन और पूर्वधारणाओं को तेज़ करने में कंपनी किस हद तक ज़िम्मेदार है. कमज़ोर रोहिंग्या लोगों के नरसंहार के समर्थन और उनकी जातीय सफ़ाई को बढ़ावा देने वाले कंटेंट को मॉडरेट करने में Meta की नाकामी को अन्य नागरिक समाज समूहों ने डॉक्यूमेंट किया है, जैसे कि Amnesty International ने एक रिपोर्ट में बताया है कि कम्युनिटी पर हुए अत्याचारों में Meta की क्या भूमिका रही है.

एक पुराने फ़ैसले में, बोर्ड ने सुझाव दिया था कि “Meta को ‘सुरक्षा’ की अपनी वैल्यू फिर से लिखनी चाहिए और उसमें धमकी, बहिष्कार और आवाज़ दबाने के जोखिमों के अलावा यह शामिल करना चाहिए कि ऑनलाइन बयान से लोगों की शारीरिक सुरक्षा और जीने के अधिकार को जोखिम हो सकता है,” ( राया कोबो में कथित अपराध, सुझाव सं. 1). Meta ने इस सुझाव को आंशिक रूप से लागू कर दिया है.

बोर्ड ने Meta से कहा है कि वह ऐसी अभिव्यक्ति की पहचान और एन्फ़ोर्समेंट को बेहतर बनाए जिसमें रोहिंग्या लोगों पर हिंसा का आह्वान किया गया हो.

फ़ैसला

बोर्ड ने संबंधित कंटेंट को प्लेटफ़ॉर्म पर बनाए रखने के Meta के मूल फ़ैसले को पलट दिया है. बोर्ड द्वारा केस को कंपनी के ध्यान में लाए जाने के बाद, Meta द्वारा मूल फ़ैसले की गलती में किए गए सुधार को बोर्ड ने स्वीकार किया.

मामले के निर्णयों और नीति सलाहकार राय पर लौटें