राष्ट्रीयता आधारित आपराधिक आरोपों पर विचार करने के लिए नए केस

आज, बोर्ड विचार करने के लिए तीन नए केसेज़ की घोषणा कर रहा है। इसके तहत हम लोगों और संगठनों को, नीचे दिए गए बटन का उपयोग करके पब्लिक कमेंट सबमिट करने के लिए आमंत्रित कर रहे हैं।

केस चयन

चूँकि हम हर अपील की सुनवाई नहीं कर सकते हैं, इसलिए बोर्ड उन केसेज़ को प्राथमिकता देता है जो दुनिया भर के बहुत से यूज़र को प्रभावित करने की संभावना रखते हैं, जो सार्वजनिक चर्चा के लिए विशिष्ट महत्व रखता है या जो Meta की नीतियों के बारे में महत्वपूर्ण प्रश्न उठाते हैं।

आज हम जिन केसेज़ की घोषणा कर रहे हैं वे हैं:

राष्ट्रीयता के आधार पर आपराधिक आरोप

2024-028-IG-MR, 2024-029-TH-MR, 2024-030-FB-MR

Meta द्वारा संदर्भ दिए गए केस

नीचे दिए गए बटन का उपयोग करके पब्लिक कमेंट सबमिट करें

ये केस, कंटेंट पर Meta द्वारा लिए गए तीन फ़ैसलों के बारे में हैं, एक Facebook से, एक Threads से और एक Instagram से संबंधित है, और ओवरसाइट बोर्ड जिनका समाधान एक साथ करने का इरादा रखता है। हर केस के लिए, बोर्ड तय करेगा कि उस कंटेंट को प्रासंगिक प्लेटफ़ॉर्म पर रहने दिया जाए या नहीं।

पहला केस, जनवरी 2024 के एक Threads पोस्ट की एक कमेंट पर एक यूज़र के जवाब से संबंधित है। यह एक वीडियो पोस्ट है जिसमें इसरायल-हमास संघर्ष पर चर्चा की जा रही है। इस जवाब में “नरसंहार” शब्द का उल्लेख है और यह कहता है कि "सभी इसरायली अपराधी हैं"। इस केस में Meta के एक ऑटोमेटेड टूल (विशेष रूप से, द्वेषपूर्ण भाषा का वर्गीकरण करने वाला एक टूल) ने कंटेंट को संभावित रूप से उल्लंघनकारी कंटेंट के रूप में चिह्नित किया। मानवीय रिव्यू के बाद Meta ने निर्धारित किया कि यह कंटेंट उसके नफ़रत फैलाने वाली भाषा संबंधित कम्युनिटी स्टैंडर्ड का उल्लंघन करती है और इसे हटा दिया। जब कंपनी ने इस केस को बोर्ड के सामने रखने योग्य माना, तब Meta के नीति संबंधित विषय-वस्तु विशेषज्ञों ने भी तय किया कि इस कंटेंट को हटाने का मूल फ़ैसला सही था। 

दूसरा केस, दिसंबर 2023 की अरबी Facebook पोस्ट से संबंधित है, जिसमें कहा गया है कि रूसी और अमेरिकी दोनों "अपराधी" हैं। इस कंटेंट में यह भी कहा गया है कि "अमेरिकी अधिक सम्मानित हैं" क्योंकि वे "अपने अपराध स्वीकार करते हैं" जबकि रूसी "अमेरिकियों के अपराधों से लाभ उठाना चाहते हैं"। Meta के ऑटोमेटेड टूल (द्वेषपूर्ण भाषा का वर्गीकरण करने वाला एक टूल) द्वारा, उस कंटेंट को संभावित रूप से उल्लंघन करने वाली कंटेंट के रूप में चिह्नित करने के बाद, इस पोस्ट को रिव्यू के लिए भेजा गया था, लेकिन यह स्वचालित रूप से बंद हो गया, जिसके कारण यह पोस्ट Facebook पर बनी रही। मार्च 2024 में, Meta ने इस कंटेंट का चयन, बोर्ड को संदर्भ देने के लिए किया और कंपनी के नीति संबंधित विषय-वस्तु विशेषज्ञों ने तय किया कि इस पोस्ट ने नफ़रत फैलाने वाली भाषा से संबंधित कम्युनिटी स्टैंडर्ड का उल्लंघन किया है। तब इसे Facebook से हटा दिया गया था। कंटेंट पोस्ट करने वाले यूज़र ने इस फ़ैसले पर अपील की थी। मानवीय रिव्यू के एक और चरण के बाद कंपनी ने फ़ैसला किया कि इस केस में, कंटेंट को हटाना सही था।

तीसरे केस में, मार्च 2024 की एक Instagram पोस्ट पर एक यूज़र का कमेंट शामिल है, जिसमें कहा गया है कि "सभी भारतीय बलात्कारी हैं"। Meta के एक ऑटोमेटेड टूल (द्वेषपूर्ण भाषा का वर्गीकरण करने वाला टूल) द्वारा, इसे संभावित रूप से नफ़रत फैलाने वाली भाषा संबंधित कम्युनिटी स्टैंडर्ड का उल्लंघन करने वाली पोस्ट के रूप में चिह्नित करने के बाद Meta ने कंटेंट को हटा दिया। यूज़र ने Meta के फ़ैसले पर अपील नहीं की। Meta द्वारा इस कंटेंट का चयन, बोर्ड को संदर्भ देने के लिए किया गया और उसके बाद कंपनी के नीति संबंधित विषय-वस्तु विशेषज्ञों ने तय किया कि इस कंटेंट को हटाने का मूल फ़ैसला सही था।

तीनों केस में Meta ने कंटेंट को हटा दिया। प्रथम केस में, Meta ने यूज़र के खाते पर मानक स्ट्राइक का इस्तेमाल नहीं किया था क्योंकि उसी समय के आसपास यूज़र के एक और कंटेंट हटा दिया गया था। Meta ने इसकी व्याख्या करते कहा कि जब कंपनी एक ही बार में एकाधिक कंटेंट को हटाती है, तो वह इसे एकल स्ट्राइक के रूप में गिन सकती है। दूसरे केस में, Meta ने यूज़र के खाते के विरुद्ध मानक स्ट्राइक को लागू नहीं किया क्योंकि Meta की स्ट्राइक नीति के अनुसार, कंटेंट को एन्फ़ोर्समेंट एक्शन लिए जाने के 90 दिन पूर्व पोस्ट किया गया था। तीसरे केस में, कंपनी ने मानक स्ट्राइक के साथ यूज़र के खाते पर 24 घंटे का फीचर लिमिट लागू किया, जिसने उन्हें लाइव वीडियो का उपयोग करने से रोका।

Meta का नफ़रत फैलाने वाली भाषा संबंधित कम्युनिटी स्टैंडर्ड, अवधारणाओं या संस्थानों के खिलाफ हमले, आम तौर पर जिसकी अनुमति दी जाती है, और नस्ल, जातीयता, राष्ट्रीय मूल और धार्मिक संबद्धता सहित संरक्षित विशेषताओं के आधार पर लोगों के खिलाफ सीधे हमलों के बीच अंतर करता है। अवधारणाओं या संस्थानों पर हमला करने वाली कंटेंट को हटाया जा सकता है यदि वह कंटेंट प्रासंगिक संरक्षित विशेषता से जुड़े लोगों के विरुद्ध "आसन्न शारीरिक नुकसान, धमकी या भेदभाव में कोई योगदान करने की संभावना रखती हो"। नफ़रत फैलाने वाली भाषा संबंधित नीति के तहत निषिद्ध हमलों में, यौन दुराचारी, आतंकवादी, हत्यारे, नफ़रत फैलाने वाली या आपराधिक संगठनों के सदस्यों, चोरों और बैंक लुटेरों सहित "अपराधियों के साथ तुलना या उनको लेकर सामान्यीकरण का अमानवीकरणीय भाषण" शामिल हैं। रिव्यू के अधीन केस में, Meta ने तीनों पोस्ट को “राष्ट्रीयता के आधार पर आपराधिक आरोप के साथ लोगों पर हमला” के कारण से हटा दिया।

जब Meta ने इन केस को बोर्ड को संदर्भ दिया तो इसमें कहा गया कि, नफ़रत फैलाने वाली भाषा संबंधित नीति के अंतर्गत, राष्ट्रीयता के आधार पर लोगों पर लगाए जाने वाले आपराधिक आरोपों से निपटने में ये चुनौती पेश कर रहे हैं। Meta ने बोर्ड को बताया कि वैसे तो कंपनी का मानना ​​है कि यह नीति ज्यादातर परिस्थितियों में आवाज और सुरक्षा के बीच सही संतुलन बनाती है, लेकिन ऐसी स्थितियां भी आती हैं, खासकर संकट और संघर्ष के समय में, "जहां किसी उल्लेखित राष्ट्रीयता वाले लोगों के खिलाफ लगाए गए आपराधिक आरोपों का अर्थ, किसी देश की जनता के बजाय उस देश की नीतियों, उसकी सरकार या उसकी सेना पर हमला करने के रूप में लगाया जा सकता है"।

बोर्ड ने इन मामलों का चयन यह विचार करने के लिए किया कि Meta को राष्ट्रीयता के आधार पर आपराधिक कृत्य के आरोपों को कैसे मॉडरेट करना चाहिए। ये केस संकट और संघर्ष की स्थितियों में, और वंचित समूहों के विरुद्ध नफ़रत फैलानी वाली भाषा को लेकर बोर्ड की कार्यनीतिक प्राथमिकताएँ के अंतर्गत आते हैं।

बोर्ड उन पब्लिक कमेंट की सराहना करेगा, जो इनको संबोधित करते हैं:

  • सोशल मीडिया प्लेटफ़ॉर्म की नफ़रत फैलाने वाली भाषा संबंधित नीतियों, विशेष रूप से Meta की नीतियों, का असर राष्ट्र के कृत्यों के खिलाफ यूज़र की बोलने की क्षमता पर पड़ता है, विशेष रूप से संकट और संघर्ष की स्थितियों में।
  • किसी व्यक्ति की राष्ट्रीयता के आधार पर आपराधिकता का आरोप लगाने वाली कंटेंट का असर, जिसमें वंचित समूहों (जैसे, राष्ट्रीय, जातीय और/या धार्मिक अल्पसंख्यक, प्रवासी) के लोग शामिल हैं, विशेष रूप से संकट और संघर्ष स्थितियों में।
  • राष्ट्रीयता के आधार पर आपराधिकता के आरोप लगाने वाली कंटेंट सहित इस संबंध में Meta की मानवाधिकार जिम्मेदारियां, अवधारणाओं के खिलाफ हमलों (आम तौर पर अनुमत) और संरक्षित विशेषताओं के आधार पर लोगों के खिलाफ हमले (अनुमति नहीं) के बीच अंतर करने के कंपनी के दृष्टिकोण पर ध्यान देते हुए।
  • यह स्थापित करने के लिए संभावित मानदंडों की इनसाइट, कि क्या कोई यूज़र किसी अवधारणा/संस्था (उदाहरण के लिए, राष्ट्र, सेना) या लोगों के समूह को उनकी राष्ट्रीयता के आधार पर निशाने पर ले रहा है।

अपने फैसले के हिस्से के रूप में, बोर्ड Meta को नीतिगत सुझाव जारी कर सकता है। हालाँकि ये सुझाव गैर-बाध्यकारी हैं, Meta को 60 दिनों के भीतर उन पर प्रतिक्रिया देनी चाहिए. इस प्रकार, बोर्ड इन केस के लिए प्रासंगिक सुझावों का प्रस्ताव करने वाले पब्लिक कमेंट का स्वागत करता है.

पब्लिक कमेंट

अगर आपको या आपके संगठन को लगता है कि आप अहम दृष्टिकोण में अपना योगदान दे सकते हैं, जो हमारी आज घोषित केस पर फ़ैसले तक पहुंचने में मदद कर सकता है, तो आप नीचे के बटन का उपयोग करके, अपना योगदान सबमिट कर सकते/सकती हैं। कृपया ध्यान दें कि पब्लिक कमेंट बिना किसी नाम के सबमिट की जा सकती हैं। पब्लिक कमेंट विंडो 14 दिनों के लिए खुली है, जो मंगलवार 4 जून को आपके स्थानीय समयानुसार 23:59 बजे बंद होगी।

आगे क्या होगा

अगले कुछ हफ़्तों में, बोर्ड मेंबर इन केसेज़ पर विचार-विमर्श करेंगे। जब वे अपने निर्णय पर पहुंच जाएंगे, तो हम इसे निर्णय पेज पर पोस्ट करेंगे।

समाचार पर लौटें