सही ठहराया

सूडान के संघर्ष से जुड़ी हथियारों वाली पोस्ट

ओवरसाइट बोर्ड ने बंदूक की काट्रिज के ग्राफ़िक वाली पोस्ट को हटाने के Meta के फैसले को कायम रखा, जिसके कैप्शन में बताया गया था कि पेट्रोल बम बनाया और फेंका कैसा जाता है. इस पोस्ट को सूडान के सशस्त्र संघर्ष के संदर्भ में शेयर किया गया था.

निर्णय का प्रकार

मानक

नीतियां और विषय

विषय
युद्ध और मतभेद, हिंसा
सामुदायिक मानक
हिंसा और उकसावा

क्षेत्र/देश

जगह
सूडान

प्लैटफ़ॉर्म

प्लैटफ़ॉर्म
Facebook

सारांश

ओवरसाइट बोर्ड ने बंदूक की काट्रिज के ग्राफ़िक वाली पोस्ट को हटाने के Meta के फैसले को कायम रखा, जिसमें कैप्शन के साथ पेट्रोल बम बनाने और फेंकने के तरीके बताए गए हैं. बोर्ड ने पाया कि पोस्ट में Facebook के हिंसा और उकसावे से जुड़े कम्युनिटी स्टैंडर्ड का उल्लंघन किया गया है, जिससे तुरंत नुकसान हो सकता है और सूडान में चल रही हिंसा को बढ़ावा मिल सकता है. इस केस से, सशस्त्र संघर्षों के दौरान शेयर किए गए हथियारों से संबंधित निर्देशों वाले कंटेंट को लेकर Meta की मानवाधिकारों से जुड़ी ज़िम्मेदारियों के बारे में चिंताएँ बहुत ज़्यादा बढ़ गई हैं. इन ज़िम्मेदारियों को पूरा करने के लिए, Meta को यह सुनिश्चित करना चाहिए कि उसके हिंसा और उकसावे के नियमों से जुड़े अपवाद स्पष्ट हों. इसके अलावा, जब Meta अपने यूज़र्स को गलत नोटिफ़िकेशन भेज दे कि उनके कंटेंट से किस कम्युनिटी स्टैंडर्ड का उल्लंघन हुआ है, तो इस तरह की गलतियों को सुधारने के लिए उसे टूल डेवलप करना चाहिए.

केस की जानकारी

जून 2023 में, एक Facebook यूज़र ने बंदूक की काट्रिज का एक इलस्ट्रेशन पोस्ट किया, जिसमें पुर्ज़ों के नाम अरबी भाषा में लिखे गए थे. पोस्ट के कैप्शन में पुर्ज़ों का उपयोग करके पेट्रोल बम बनाने का तरीका बताया गया था और आग लगाने वाले डिवाइस को फेंकते समय हेलमेट पहनने की सलाह दी गई थी. पोस्ट के अंत में सूडानी लोगों और सूडानी सशस्त्र बलों (SAF) की जीत का आह्वान किया गया था.

कंटेंट पोस्ट करने से दो महीने पहले, सूडान में SAF और अर्द्धसैनिक बल त्वरित सहायता बल (RSF) के बीच संघर्ष शुरू हुआ था. त्वरित सहायता बल (RSF) को अगस्त 2023 में Meta ने खतरनाक घोषित किया था. सूडान का सशस्त्र संघर्ष जारी है और पूरे देश में फैल गया है. दोनों ओर से नागरिकों की घनी आबादी वाले क्षेत्रों में विस्फोटक हथियारों का इस्तेमाल किया गया है.

Meta के ऑटोमेटेड सिस्टम ने कंटेंट का पता लगाया और यह तय किया है कि इससे Facebook के हिंसा और उकसावे से संबंधित कम्युनिटी स्टैंडर्ड का उल्लंघन होता है. Meta ने यूज़र की प्रोफ़ाइल पर स्टैंडर्ड स्ट्राइक लागू करके पोस्ट को हटा दिया. उस यूज़र ने तुरंत अपील की. इस वजह से Meta के ह्यूमन रिव्यूअर्स में से एक ने पाया कि पोस्ट में प्रतिबंधित सामान और सेवाओं से संबंधित पॉलिसी का उल्लंघन हुआ है. यूज़र ने फिर बोर्ड से अपील की, जिसके बाद Meta ने यह तय किया कि कंटेंट को हटाया जाना चाहिए था लेकिन हिंसा और उकसावे से जुड़े कम्युनिटी स्टैंडर्ड के तहत, जैसा कि उसके मूल फ़ैसले में किया गया था.

मुख्य निष्कर्ष

बोर्ड ने पाया कि पोस्ट से हिंसा और उकसावे से जुड़ी पॉलिसी का दो तरह से उल्लंघन हुआ है. पहला, फ़ोटो और कैप्शन के मिले-जुले असर से उस नियम का उल्लंघन हुआ जिसमें “हथियार बनाने या उपयोग करने के ऐसी भाषा में निर्देश देना प्रतिबंधित है जिसमें लोगों को गंभीर रूप से घायल करने या मारने का उद्देश्य स्पष्ट रूप से बताया गया हो.” पोस्ट बनाने वाले व्यक्ति के इरादे पर ध्यान दिए बगैर, पेट्रोल बम बनाने के तरीके को विस्तार से बताने वाली गाइड और “हेलमेट का उपयोग करने” की सलाह यह बताती है कि कंटेंट में लोगों से निर्देशों को अमल में लाने का आह्वान किया गया है. दूसरा, जारी सशस्त्र संघर्ष के दौरान SAF के समर्थन में हिंसा का सहारा लेना, यह नहीं दर्शाता कि हिंसा के उद्देश्य से इसका संबंध नहीं है. अगर “कंटेंट को हिंसा न फैलाने के संदर्भ में नहीं लिखा गया है,” तो हिंसा और उकसावे से जुड़ी पॉलिसी के तहत हथियार बनाने के निर्देश देना प्रतिबंधित है.

वह नियम जो हथियार बनाने और उपयोग करने के निर्देशों को प्रतिबंधित करता है, उसमें कंटेट के लिए कुछ अपवाद शामिल हो सकते हैं बशर्ते इसे “मनोरंजनात्मक आत्मरक्षा, सैन्य प्रशिक्षण के उद्देश्यों, कमर्शियल वीडियो गेम या न्यूज़ कवरेज के संदर्भ में शेयर किया गया हो.” बोर्ड की ओर से जिन स्टेकहोल्डर्स के साथ विचार-विमर्श किया गया उनके साथ ही न्यूज़ रिपोर्ट में दावा किया गया कि Meta कुछ सशस्त्र संघर्षों में आत्मरक्षा के लिए ऐसे निर्देशों की परमिशन देता है. Meta ने इस बात से इनकार किया कि यह सच है. बोर्ड इन प्रतिस्पर्धी दावों की सच्चाई बताने की स्थिति में नहीं है.

हालाँकि, सबसे ज़रूरी बात यह है कि ऐसे महत्वपूर्ण मुद्दे को लेकर Meta के नियम स्पष्ट हैं और हमेशा एकरूपता और सख्ती से लागू किए जाते हैं. संघर्ष के दौरान लड़ाकों और नागरिकों द्वारा हथियारों के उपयोग या आत्मरक्षा के लिए हिंसक कंटेंट के बारे में जानकारी शेयर करने के लिए Meta के प्लेटफ़ॉर्म के उपयोग को देखते हुए, Meta को स्पष्ट करना चाहिए कि "मनोरंजनात्मक आत्मरक्षा" और "सैन्य प्रशिक्षण" अपवादों का क्या मतलब है. बोर्ड, Meta की इस बात से सहमत नहीं है कि "हिंसा और उकसावे से जुड़े कम्युनिटी स्टैंडर्ड" की लोगों को दिखाई देने वाली भाषा में इन शर्तों का "मतलब स्पष्ट" है. ज़्यादा स्पष्टता के लिए, Meta को साफ़ बताना चाहिए कि कौन-से लोग "मनोरंजनात्मक आत्मरक्षा" का उपयोग कर सकते हैं और यह अपवाद किस तरह की स्थिति में लागू होता है. इसके अलावा, हथियार या विस्फोटक बनाने या उपयोग करने के निर्देशों से संबंधित पॉलिसी की लोगों को दिखाई देने वाली भाषा में स्पष्ट रूप से यह नहीं बताया गया है कि सशस्त्र संघर्षों के दौरान आत्मरक्षा के संदर्भों पर विचार नहीं किया जाता है.

इस केस में हिंसा और उकसावे से जुड़े कम्युनिटी स्टैंडर्ड के एक और अस्पष्ट अपवाद को भी हाइलाइट किया गया है, जिसमें आतंकवादियों और अन्य हिंसक लोगों को दी गई धमकियों की परमिशन देता है. यह बहुत स्पष्ट नहीं है क्योंकि Meta यह साफ़ तौर पर नहीं बताता है कि क्या यह उन सभी संगठनों और लोगों पर लागू होता है जिन्हें वह अपनी अलग से बनाई गई खतरनाक संगठनों और लोगों से जुड़ी पॉलिसी में खतरनाक मानता है. यह इस केस के लिए प्रासंगिक है क्योंकि RSF को 2023 में प्रासंगिक अवधि के लिए खतरनाक चिह्नित किया गया था. हालाँकि, यूज़र्स के लिए यह पता लगाना असंभव है कि इस आधार पर उनकी पोस्ट को हटाया जा सकता है या नहीं, क्योंकि चिह्नित संगठनों और लोगों की सूची सार्वजनिक रूप से उपलब्ध नहीं है. बोर्ड ने पहले ही अपने हैती के पुलिस स्टेशन का वीडियो से संबंधित फ़ैसले में स्पष्टता की ऐसी कमी के बारे में चिंता जताई है.

बोर्ड को इस बात की भी चिंता है कि Meta का नोटिफ़िकेशन सिस्टम कंपनी को अपनी गलतियाँ ठीक करने की परमिशन नहीं देता है, क्योंकि वह सही ढंग से यह नहीं बताता है कि यूजर ने किस कम्युनिटी स्टैंडर्ड का उल्लंघन किया है. निष्पक्षता की गारंटी के लिए, यूज़र्स को उनके उल्लंघन के बारे में सही जानकारी देना ज़रूरी है. गलत नोटिफ़िकेशन से यूज़र की अपील करने और समाधान पाने की एक्सेस कमज़ोर होती है. इस केस में, यूज़र को गलती से सूचित किया गया था कि उनकी पोस्ट को नफ़रत फैलाने वाली भाषा के कारण हटा दिया गया है, हालाँकि पोस्ट को हिंसा और उकसावे से जुड़े कम्युनिटी स्टैंडर्ड का उल्लंघन करने के लिए हटाया गया था. इसलिए, बोर्ड, Meta को तकनीकी रूप से ऐसे संभव तरीकों का पता लगाने के लिए प्रोत्साहित करता है जिससे वह यूज़र नोटिफ़िकेशन में सुधार कर सके.

ओवरसाइट बोर्ड का फ़ैसला

ओवरसाइट बोर्ड ने पोस्ट को हटाने के Meta के फ़ैसले को कायम रखा है.

बोर्ड ने Meta को सुझाव दिया है कि वह:

  • हिंसा और उकसावे से जुड़ी अपनी पॉलिसी में बदलाव करके “मनोरंजनात्मक आत्मरक्षा” और “सैन्य प्रशिक्षण” की परिभाषा को उन नियमों के अपवाद में जोड़े जिनमें यूज़र्स को हथियार बनाने या उपयोग करने के निर्देश देना प्रतिबंधित है और यह स्पष्ट करना चाहिए कि किसी सशस्त्र संघर्ष के संदर्भ में ऐसे निर्देशों के लिए वह आत्मरक्षा के किसी भी अपवाद की परमिशन नहीं देता.
  • यूज़र्स को मैसेज भेजने में होने वाली अपनी गलतियों को सुधारने के लिए टूल्स डेवलप करे जो यूज़र्स को उनके द्वारा उल्लंघन किए गए कम्युनिटी स्टैंडर्ड के बारे में सूचित करें, ताकि वे ठीक से समझ सकें कि उनके कंटेंट से किन पॉलिसी का उल्लंघन हुआ है.

* केस के सारांश से केस का ओवरव्यू मिलता है और आगे के किसी फ़ैसले के लिए इसको आधार नहीं बनाया जा सकता है.

केस का पूरा फ़ैसला

1.फ़ैसले का सारांश

ओवरसाइट बोर्ड ने एक ऐसी पोस्ट को हटाने के Meta के फ़ैसले को कायम रखा जिसमें बंदूक की कार्ट्रिज का एक ग्राफ़िक था और अरबी भाषा में उसके पुर्ज़ों के बारे में बताया गया था. पोस्ट के साथ अरबी भाषा में एक कैप्शन भी था जिसमें बताया गया था कि उसकी गोलियों के शॉटगन शैल को खाली कैसे किया जाए और उसके पुर्ज़ों से पेट्रोल बम कैसे बनाया जाए. पोस्ट में लोगों को यह सलाह भी दी गई थी कि ऐसे आग लगाने वाले डिवाइस को फेंकते समय चोट से बचने के लिए हेलमेट का उपयोग किया जाना चाहिए. कैप्शन के अंत में एक आह्वान है, “सूडान के लोगों की विजय / सूडान के सशस्त्र बलों की विजय / मेरे देश आगे बढ़ो.” शत्रुतापूर्ण बयान के क्लासिफ़ायर ने कंटेंट का पता लगाया और पाया कि इससे Facebook के हिंसा और उकसावे से जुड़े कम्युनिटी स्टैंडर्ड का उल्लंघन होता है.

बोर्ड ने पाया कि पोस्ट ने हिंसा और उकसावे से जुड़े कम्युनिटी स्टैंडर्ड का उल्लंघन किया जिसके अनुसार हथियार बनाने या उपयोग करने के ऐसी भाषा में निर्देश देने वाला कंटेंट प्रतिबंधित है जिसमें लोगों को गंभीर रूप से घायल करने या मारने का उद्देश्य स्पष्ट रूप से बताया गया हो. बोर्ड इस नतीजे पर भी पहुँचा कि पोस्ट से हिंसा और उकसावे से जुड़े कम्युनिटी स्टैंडर्ड के तहत एक अन्य पॉलिसी लाइन का भी उल्लंघन होता है जिसके अनुसार अगर कंटेंट को हिंसा न फैलाने के संदर्भ में नहीं लिखा गया है, तो विस्फोटक बनाने के निर्देश देना प्रतिबंधित है. बोर्ड ने पाया कि कंटेंट से नुकसान का तात्कालिक जोखिम उत्पन्न होता है जिससे सूडान में जारी हिंसा की स्थिति और बिगड़ सकती है.

यह केस उन हथियारों जिन्हें सशस्त्र संघर्षों के दौरान शेयर किया जा सकता है और इस संदर्भ में Meta की मानवाधिकारों से जुड़ी ज़िम्मेदारियों के बारे में व्यापक चिंताएँ बढ़ाता है. उन ज़िम्मेदारियों को लागू करने के लिए, Meta को यह सुनिश्चित करना होगा कि हिंसा और उकसावे से जुड़े कम्युनिटी स्टैंडर्ड के तहत हथियार बनाने या उपयोग करने के बारे में पॉलिसी लाइन के अपवाद स्पष्ट रूप से परिभाषित करके नियमों का बेहतर सामंजस्य बनाया जाए. इसके अलावा, Meta को ऐसे टूल बनाने चाहिए जिनकी मदद से कंपनी यूज़र्स को यह सूचित करते समय होने वाली गलतियों को ठीक कर सके कि उन्होंने किस कम्युनिटी स्टैंडर्ड का उल्लंघन किया है.

2. केस की जानकारी और बैकग्राउंड

जून 2023 में, एक Facebook यूज़र ने बंदूक की काट्रिज का एक इलस्ट्रेशन पोस्ट किया. कार्ट्रिज के अलग-अलग पुर्ज़ों के नाम अरबी भाषा में लिखे गए थे. पोस्ट के साथ अरबी भाषा में एक कैप्शन भी था जिसमें बताया गया था कि उसकी गोलियों के शॉटगन शैल को खाली कैसे किया जाए और उसके पुर्ज़ों से पेट्रोल बम कैसे बनाया जाए. पेट्रोल बम एक आग लगाने वाले डिवाइस है जिसे आम तौर पर एक बोतल में बनाया जाता है और इसे आसानी से बनाया जा सकता है. कैप्शन में यह सलाह भी दी गई है कि इस आग लगाने वाले डिवाइस को फेंकने वाले व्यक्ति की सुरक्षा के लिए उसे हेलमेट पहनना चाहिए और आखिरी में कहा गया है कि “सूडानी लोगों की विजय हो,” “सूडानी सशस्त्र बलों की विजय हो” और “मेरे देश आगे बढ़ो.” बोर्ड ने जिन भाषाई विशेषज्ञों से परामर्श किया, उन्होंने कहा कि अलग से उपयोग किए जाने पर इन वाक्यों से नागरिकों के लिए हिंसा में शामिल होने के आह्वान का अर्थ नहीं निकलता. Meta ने इस कंटेंट को पोस्ट किए जाने के सात मिनट बाद ही इसे बिना किसी ह्यूमन रिव्यू के हटा दिया था और तब तक इसे सिर्फ़ कुछ ही बार देखा गया था. जून 2023 में जब इस कंटेंट को पोस्ट किया गया था, तब सूडानी सशस्त्र बलों (SAF) और अर्द्धसैनिक समूह त्वरित सहायता बलों (RSF) के बीच अप्रैल मध्य से चला आ रहा सशस्त्र संघर्ष जारी था जो आज तक जारी है. संघर्ष शुरू होने के कुछ महीने बाद RSF को 11 अगस्त, 2023 को Meta की खतरनाक संगठनों और लोगों से जुड़ी पॉलिसी के तहत एक खतरनाक संगठन चिह्नित किया गया था.

शत्रुतापूर्ण बयान के क्लासिफ़ायर, जो एक ऐसा एल्गोरिदम है जिसका उपयोग करके Meta नफ़रत फैलाने वाली भाषा, हिंसा और उकसावे और धमकाना और उत्पीड़न से जुड़े कम्युनिटी स्टैंडर्ड के संभावित उल्लंघनों का पता लगाता है, ने कंटेंट की पहचान की और यह तय किया कि उससे हिंसा और उकसावे से जुड़े कम्युनिटी स्टैंडर्ड का उल्लंघन होता है. Meta ने कंटेंट को हटा दिया और कंटेंट क्रिएटर की प्रोफ़ाइल पर स्टैंडर्ड स्ट्राइक लागू की जिससे तीन दिन के लिए उनके ग्रुप इंटरैक्शन और मैसेंजर में कोई रूम बनाने या उसमें शामिल होने पर रोक लग गई. यूज़र ने Meta के फ़ैसले के खिलाफ़ तुरंत अपील की. इसके बाद ह्यूमन रिव्यूअर ने पोस्ट का रिव्यू किया और पाया कि पोस्ट से प्रतिबंधित सामान और सेवाओं से जुड़ी पॉलिसी का उल्लंघन होता है. इसके बाद उस यूज़र ने बोर्ड के सामने अपनी अपील पेश की. जब बोर्ड ने इस केस के बारे में Meta से बातचीत की तब कंपनी ने यह स्पष्ट किया कि हिंसा और उकसावे से जुड़े कम्युनिटी स्टैंडर्ड के तहत संबंधित कंटेंट को हटाने का उसका शुरुआती फ़ैसला ही सही था और पोस्ट ने प्रतिबंधित सामान और सेवाओं से जुड़ी पॉलिसी का उल्लंघन नहीं किया है.

बोर्ड ने इस केस में अपना फ़ैसला करते समय नीचे दिए संदर्भ पर विचार किया.

अप्रैल 2023 में, सूडान की राजधानी में SAF और एक अर्द्धसैनिक बल, RSF के बीच लड़ाई शुरू हुई. इस केस में शामिल कंटेंट पोस्ट करने वाला यूज़र, SAF का समर्थक लगता है. शुरुआत में लड़ाई सूडान की राजधानी खार्तूम पर केंद्रित थी, लेकिन बाद में यह लड़ाई दारफुर और कोरदोफन सहित पूरे देश में फैल गई. दोनों ग्रुप्स ने नागरिक बहुल इलाकों में हवाई बमों, तोपों और मोर्टार प्रोजेक्टाइल और रॉकेट और मिसाइल सहित विस्फोटक हथियारों का उपयोग किया है. संयुक्त राष्ट्र के अनुसार, अप्रैल मध्य से लेकर जनवरी 2024 तक 7 मिलियन से ज़्यादा लोग विस्थापित हुए हैं और 1.2 मिलियन से ज़्यादा लोग सूडान छोड़ चुके हैं. बताया जाता है कि लगभग 9,000 लोग इस दौरान मारे जा चुके हैं. नागरिकों के खिलाफ़ कुछ हमलेजातिगत आधार पर किए गए हैं. अक्टूबर 2023 में, लोगों में ट्रैफ़िकिंग पर संयुक्त राष्ट्र के विशेष रैपर्टर ने सशस्त्र बलों और ग्रुप्स द्वारा बाल सैनिकों की बढ़ती भर्ती और उपयोग पर चिंता जताई. लड़ाई पूरे देश में जारी है, इसलिए विशेषज्ञों ने यह भी नोट किया कि इसमें शामिल होने वाले अन्य सशस्त्र ग्रुप्स की संख्या बढ़ती जा रही है.

सूडान में संघर्ष के बारे में बोर्ड ने जिन विशेषज्ञों से परामर्श किया, उनके अनुसार SAF और RSF, अपने-अपने एजेंडे की “जानकारी और प्रोपेगंडा फैलाने” के लिए सोशल मीडिया पर निर्भर हैं. सूडान में इंटरनेट की उपलब्धता भले ही कम है, लेकिन न्यूज़संगठनों और नागरिकसमाजग्रुप्स ने रिपोर्ट किया कि SAF और RSF, संघर्ष से जुड़े बयानों को कंट्रोल करने की कोशिश करने के लिए सोशल मीडिया का उपयोग करते हैं. जैसे कि दोनों पार्टियाँ उन एरिया में अपनी-अपनी जीत के दावे पोस्ट कर रही हैं जहाँ लड़ाई जारी है, जिसके कारण ऐसी गलत जानकारी पर भरोसा करके लौटने वाले नागरिकों का जीवन खतरे में पड़ रहा है.

3. ओवरसाइट बोर्ड की अथॉरिटी और स्कोप

बोर्ड को उस व्यक्ति के अपील करने के बाद Meta के फ़ैसले का रिव्यू करने का अधिकार है, जिसका कंटेंट हटा दिया गया था (चार्टर आर्टिकल 2, सेक्शन 1; उपनियम आर्टिकल 3, सेक्शन 1).

बोर्ड Meta के फ़ैसले को कायम रख सकता है या उसे बदल सकता है (चार्टर अनुच्छेद 3, सेक्शन 5) और उसका फ़ैसला कंपनी पर बाध्यकारी होता है (चार्टर अनुच्छेद 4). Meta को मिलते-जुलते संदर्भ वाले समान कंटेंट पर अपने फ़ैसले को लागू करने की संभावना का भी आकलन करना चाहिए (चार्टर अनुच्छेद 4). बोर्ड के फ़ैसलों में गैर-बाध्यकारी सलाह शामिल हो सकती हैं, जिन पर Meta को जवाब देना ज़रूरी है (चार्टर अनुच्छेद 3, सेक्शन 4; अनुच्छेद 4). जहाँ Meta, सुझावों पर एक्शन लेने की प्रतिबद्धता व्यक्त करता है, वहाँ बोर्ड उनके क्रियान्वयन की निगरानी करता है.

4. अथॉरिटी और मार्गदर्शन के सोर्स

इस केस में बोर्ड ने इन स्टैंडर्ड और पुराने फ़ैसलों को ध्यान में रखते हुए विश्लेषण किया:

I. ओवरसाइट बोर्ड के फ़ैसले

ओवरसाइट बोर्ड के कुछ सबसे प्रासंगिक पुराने फ़ैसलों में ये शामिल हैं:

II. Meta की कंटेंट पॉलिसीज़

Meta के हिंसा और उकसावे से जुड़ा कम्युनिटी स्टैंडर्ड का उद्देश्य “ऐसे संभावित ऑफ़लाइन नुकसान को रोकना है, जो हमारे प्लेटफ़ॉर्म पर मौजूद कंटेंट से संबंधित हो सकता है.” Meta कहता है कि वह “ऐसी भाषा को हटा देता है जो गंभीर हिंसा को उकसाता है या उसे आसान बनाती है” और जो “लोगों की या निजी सुरक्षा को खतरे में डालती है.” Meta अनौपचारिक बयानों, जिन्हें पॉलिसी के तहत परमिशन दी गई है, और उन बयानों के बीच अंतर करता है जो “जान-माल के नुकसान का वास्तविक जोखिम उत्पन्न करते हैं या लोगों की सुरक्षा के लिए सीधा खतरा होते हैं.”

हिंसा और उकसावे से जुड़े कम्युनिटी स्टैंडर्ड में “ऐसी धमकियों को प्रतिबंधित किया गया है जिनसे मृत्यु (या अन्य तरह की बहुत गंभीर हिंसा) हो सकती है.” इसमें यह भी कहा गया है कि Meta ऐसी धमकियों की परमिशन देता है “जो आतंकवादी समूहों जैसे हिंसा फैलाने वाले कुछ ख़ास लोगों के लिए उपयोग की गई हों.” Meta ने 6 दिसंबर, 2023 को पॉलिसी को यह बताने के लिए अपडेट किया कि अगर धमकियों को जागरूकता फैलाने के लिए शेयर किया गया है, तो Meta उन्हें प्रतिबंधित नहीं करता, जो रूसी कविता केस में बोर्ड के सुझाव के अनुसार है. बोर्ड के साथ बातचीत में Meta ने यह स्पष्ट किया कि “अगर टार्गेट कोई चिह्नित DOI [खतरनाक संगठन या व्यक्ति] एंटिटी है, तो हिंसा के आह्वान, आकांक्षापूर्ण धमकियों और उच्च या मध्यम गंभीरता की सशर्त धमकियों की परमिशन दी जाती है. हालाँकि, इरादे के कथन हमेशा ही पॉलिसी का उल्लंघन करने वाले माने जाते हैं.”

हिंसा और उकसावे से जुड़े कम्युनिटी स्टैंडर्ड में भी हथियार बनाने और उपयोग करने के निर्देशों से संबंधित दो नियम हैं.

पहले नियम के अनुसार “हथियार बनाने या उपयोग करने के ऐसी भाषा में निर्देश देने वाला कंटेंट प्रतिबंधित है जिसमें लोगों को गंभीर रूप से घायल करने या मारने का उद्देश्य स्पष्ट रूप से बताया गया हो” या “जो ऐसी इमेजरी हो जो अंतिम परिणाम दिखाती या उसे सिम्युलेट करती हो.” इस तरह के कंटेंट की परमिशन सिर्फ़ तभी है जब उसे “मनोरंजक आत्मरक्षा, देश की सेना द्वारा प्रशिक्षण, कमर्शियल वीडियो गेम या न्यूज़ कवरेज (किसी पेज या न्यूज़ लोगो के साथ पोस्ट करने पर) के संदर्भ में शेयर किया गया हो.”

दूसरा नियम ऐसे कंटेंट को प्रतिबंधित करता है जिनमें विस्फोटक बनाने या उपयोग करने के निर्देश दिए गए हों, बशर्ते “कंटेंट को हिंसा न फैलाने संदर्भ में उपयोग न किया गया हो.” हिंसा न फैलाने के उदाहरणों में “कमर्शियल वीडियो गेम, स्पष्ट वैज्ञानिक/शैक्षणिक उद्देश्य, आतिशबाज़ी या फ़िशिंग के लिए विशेष रूप से उपयोग शामिल हैं.”

बोर्ड का विश्लेषण, Meta की अभिव्यक्ति की प्रतिबद्धता, जिसे कंपनी “सर्वोपरि” बताती है, और सुरक्षा की उसकी वैल्यू के आधार पर किया गया था.

III. Meta की मानवाधिकारों से जुड़ी ज़िम्मेदारियाँ

16. बिज़नेस और मानवाधिकारों के बारे में संयुक्त राष्ट्र संघ के मार्गदर्शक सिद्धांत (UNGP), जिन्हें 2011 में संयुक्त राष्ट्र संघ की मानवाधिकार समिति ने स्वीकृति दी है, प्राइवेट बिज़नेस की मानवाधिकार से जुड़ी ज़िम्मेदारियों का स्वैच्छिक ढाँचा तैयार करते हैं. 2021 में Meta ने मानवाधिकारों से जुड़ी अपनी कॉर्पोरेट पॉलिसी की घोषणा की, जिसमें उसने UNGP के अनुसार मानवाधिकारों का ध्यान रखने की अपनी प्रतिबद्धता दोहराई. UNGP के अनुसार, किसी संघर्ष वाले माहौल में काम करने वाले बिज़नेस की मानवाधिकारों से जुड़ी ज़िम्मेदारियाँ ज़्यादा होती हैं (“बिज़नेस, मानवाधिकार और संघर्ष से प्रभावित क्षेत्र: बड़े स्तर की कार्रवाई की ओर,” A/75/212).

इस केस में बोर्ड ने Meta की मानवाधिकार से जुड़ी ज़िम्मेदारियों का विश्लेषण इन अंतरराष्ट्रीय स्टैंडर्ड को ध्यान में रखते हुए किया:

5. यूज़र सबमिशन

बोर्ड को की गई अपनी अपील में, कंटेंट के लेखक ने कहा कि Meta ने पोस्ट को गलत समझा और वे सिर्फ़ तथ्य बताना चाहते थे.

6. Meta के सबमिशन

Meta ने क्लेम किया कि पोस्ट से हिंसा और उकसावे से जुड़े कम्युनिटी स्टैंडर्ड की दो बातों का उल्लंघन हुआ है. पहला, इससे पॉलिसी की उस लाइन का उल्लंघन हुआ जिसमें हथियार बनाने या उपयोग करने के तरीके बताने वाला कंटेंट प्रतिबंधित है, अगर इस बात का सबूत मौजूद हो कि उसका लक्ष्य लोगों को गंभीर रूप से घायल करना या मारना है. Meta ने कहा कि पोस्ट से उल्लंघन होता है क्योंकि उसके “कैप्शन में कहा गया है कि पेट्रोल बम को किसी टार्गेट पर फेंककर उपयोग किया जाए...” इसके अलावा, निर्देशों को “सशस्त्र संघर्ष के संदर्भ में और स्पष्ट रूप से SAF के समर्थन में” शेयर किया गया है. Meta ने पाया कि पोस्ट को पॉलिसी लाइन के तहत किसी भी अपवाद की छूट नहीं दी जा सकती, जैसे कि “मनोरंजक आत्मरक्षा,” “सैन्य प्रशिक्षण” या “न्यूज़ कवरेज” से जुड़ी छूट. बोर्ड द्वारा “मनोरंजक आत्मरक्षा” और “सैन्य प्रशिक्षण” का मतलब पूछे जाने पर, Meta ने कहा कि “इन शब्दों के सामान्य अर्थों के अलावा” इनकी कोई अन्य परिभाषा नहीं है.

कंटेंट से उस पॉलिसी लाइन का भी उल्लंघन होता है जिसमें विस्फोटक बनाने या उपयोग करने के निर्देश देना प्रतिबंधित है, जब तक कि यह स्पष्ट न हो कि कंटेंट को हिंसा न फैलाने संदर्भ में उपयोग किया गया है. Meta, पॉलिसी के अर्थ के तहत पेट्रोल बम को विस्फोटक मानता है. इसके अलावा, Meta ने यह आकलन किया कि कंटेंट को “हिंसक संघर्ष को और भड़काने के इरादे से शेयर किया गया था.”

जब इस कंटेंट को पोस्ट किया गया था, तब मौजूद हिंसा और उकसावे से जुड़ी पॉलिसी को लागू करने की आंतरिक गाइडलाइन के अनुसार, Meta ऐसे कंटेंट को परमिशन देता है जो पॉलिसी का उल्लंघन तो करता है लेकिन जिसे “जागरूकता फैलाने या निंदा करने के संदर्भ में पोस्ट किया गया हो.” 6 दिसंबर, 2023 को लोगों को दिखाई देने वाले कम्युनिटी स्टैंडर्ड में अपडेट के बाद, पॉलिसी अब यह मार्गदर्शन दिखाती है: “[Meta] तब धमकियों को प्रतिबंधित नहीं करता जब उन्हें जागरूकता फैलाने या निंदा करने के संदर्भ में शेयर किया जाए.” हालाँकि, Meta कहता है कि कैप्शन से यह स्पष्ट है कि “पोस्ट का इरादा जागरूकता फैलाना नहीं, बल्कि हिंसक काम करने में सक्षम बनाना था.” यह पूछने पर कि क्या Meta किसी देश या संघर्ष को हिंसा और उकसावे से जुड़ी पॉलिसी की हथियार या विस्फोटक बनाने या उपयोग करने के निर्देशों को प्रतिबंधित करने वाली पॉलिसी लाइन के उपयोग से छूट देता है, Meta ने बोर्ड को बताया कि उसने किसी भी देश के लिए पॉलिसी में ख़ास अपवाद या छूट नहीं दी है, “चाहे वहाँ कोई एक्टिव संघर्ष हो या न हो.”

Meta के अपडेट किए गए हिंसा और उकसावे से जुड़े कम्युनिटी स्टैंडर्ड के आधार पर, Meta उन धमकियों को प्रतिबंधित नहीं करता, जो “आतंकवादी समूहों जैसे ख़ास हिंसक लोगों के लिए उपयोग की गई हों.” इसका मतलब है कि RSF जैसे चिह्नित खतरनाक संगठनों या इंडिविजुअल एंटिटी को टार्गेट करके दी गई कुछ धमकियों को Meta के प्लेटफ़ॉर्म पर परमिशन दी गई है. हालाँकि Meta ने बताया कि यह अपवाद हिंसा और उकसावे से जुड़े कम्युनिटी स्टैंडर्ड के तहत उन दो पॉलिसी लाइनों पर लागू नहीं होता जो हथियार या विस्फोटक बनाने या उपयोग करने के निर्देशों से संबंधित हैं. दूसरे शब्दों में, हथियार बनाने या उपयोग करने के तरीके बताने वाला कंटेंट हमेशा प्रतिबंधित है, भले ही उसका टार्गेट कोई चिह्नित खतरनाक संगठन या इंडिविजुअल एंटिटी हो.

Meta ने सूडान में अप्रैल 2023 से शुरू हुई हिंसा के समाधान के लिए कोई इंटीग्रिटी प्रोडक्ट ऑपरेशन सेंटर सेट नहीं किया, जिसका उपयोग रियल-टाइम में धमकियों पर प्रतिक्रिया देने के लिए किया जाता है. Meta के अनुसार, वह “मौजूदा प्रोसेस के ज़रिए पहचाने गए कंटेंट के जोखिमों को हैंडल करने में सक्षम था.” मौजूदा संघर्ष पर कंपनी की प्रतिक्रिया की कोशिशें, सूडान का आपत्तिजनक वीडियो केस में पहली बार बोर्ड द्वारा बताए गए कामों पर आधारित थी और उन्हें आगे बढ़ाती थी. सूडान में अक्टूबर 2021 के सैन्य तख्तापलट के जवाब में “Meta ने स्थिति की निगरानी करने और उभरते ट्रेंड और जोखिमों के बारे में बताने के लिए आपदा प्रतिक्रिया परस्पर-क्रियाशील टीम बनाई” जो अभी भी मौजूद है. इसके अलावा, Meta ने 2023 के सूडान संघर्ष के संबंध में कंटेंट के संभावित जोखिमों का समाधान करने के लिए ये कदम भी उठाए: RSF का प्रतिनिधित्व करने वाले पेजों और अकाउंट को हटाना, Meta द्वारा समूह को खतरनाक संगठन के रूप में चिह्नित करने के फ़ैसले का पालन करना; उन संभावित रूप से फ़ेक अकाउंट की जाँच करना जो संघर्ष के संबंध में लोगों की बातचीत को गुमराह कर सकते हैं; और सूडान को कुछ समय के लिए उच्च जोखिम वाली लोकेशन के रूप में चिह्नित करना (THRL चिह्नांकन और हिंसा और उकसावे से जुड़े कम्युनिटी स्टैंडर्ड से इसके संबंध की जानकारी के लिए ब्राज़ील के जनरल का भाषण फ़ैसला, सेक्शन 8.1 देखें). Meta ने बोर्ड को बताया कि “तात्कालिक और उभरते हुए संकटों के पूरे जीवनचक्र के दौरान समर्पित ऑपरेशन ओवरसाइट देने के लिए” वह लंबी अवधि के लिए संकट समन्वय की स्थापना पर काम कर रहा है. यह काम टिग्रे कम्युनिकेशन अफ़ेयर्स ब्यूरो केस में बोर्ड के सुझाव के आधार पर किया जा रहा है.

30 मई, 2023 तक, सूडान को Meta के आंतरिक दर्जे में सबसे ऊँचा दर्जा दिया जा चुका है. तब से, Meta इसके लिए ऊँचे स्तर का जोखिम प्रबंधन अपनाए हुए है और उस काम के भाग के रूप में कंटेंट के जोखिमों के लिए स्थितियों की निगरानी कर रहा है. संकट पॉलिसी प्रोटोकॉल वह फ़्रेमवर्क है जिसका निर्माण Meta ने उभरते संकट के लिए समयबद्ध पॉलिसी विशिष्ट प्रतिक्रियाएँ देने के लिए किया है. संकट पॉलिसी प्रोटोकॉल के तहत संकट की तीन कैटेगरी हैं – कैटेगरी 1 सबसे कम गंभीर है और कैटेगरी 3 सबसे ज़्यादा गंभीर है. सूडान को कैटेगरी 3 का दर्जा देना, एस्केलेट करने वाली संकट मीटिंग की अतिरिक्त प्रवेश शर्त, जैसे कि “गंभीर आंतरिक संकट” और “सैन्य हस्तक्षेप,” का परिणाम था.

बोर्ड ने Meta से सोलह लिखित सवाल पूछे. Meta के शत्रुतापूर्ण बयान के क्लासिफ़ायर के बारे में सवाल; हिंसा और उकसावे के कम्युनिटी स्टैंडर्ड के संबंध में Meta, आत्मरक्षा की अवधारणा को कैसे समझता है; सूडान के संघर्ष के जवाब में उसके द्वारा किए गए उपाय; सशस्त्र संघर्षों के दौरान हिंसा और उकसावे से जुड़े कम्युनिटी स्टैंडर्ड की हथियारों से जुड़ी पॉलिसी लाइन का एन्फ़ोर्समेंट. Meta ने सभी सवालों के जवाब दिए.

7. पब्लिक कमेंट

ओवरसाइट बोर्ड को लोगों की ओर से इस केस के लिए प्रासंगिक 10 कमेंट मिले. तीन कमेंट अमेरिका और कनाडा से, दो एशिया पैसिफ़िक और ओशेनिया से, दो यूरोप से, एक लैटिन अमेरिका और कैरिबियन से, एक मध्य पूर्व और उत्तरी अफ़्रीका से और एक सब-सहारन अफ़्रीका से सबमिट किया गया था. इसमें ऐसे सार्वजनिक कमेंट शामिल थे जो या तो डुप्लिकेट थे, प्रकाशित करने की सहमति के बगैर सबमिट किए गए थे या प्रकाशित करने की सहमति के साथ सबमिट किए गए थे, लेकिन प्रकाशन के लिए बोर्ड की शर्तें पूरी नहीं करते थे. पब्लिक कमेंट को प्रकाशन की सहमति के साथ या उसके बगैर और एट्रिब्यूट करने की सहमति के साथ या उसके बगैर बोर्ड को सबमिट किया जा सकता है. सबमिशन में नीचे दी गई थीम पर बात की गई थी: सूडान में संघर्ष की स्थिति; सशस्त्र संघर्ष की स्थितियों में मानवाधिकारों के संबंध में Meta की ज़िम्मेदारियाँ, ख़ास तौर पर मानवाधिकारों से जुड़े उत्तरदायित्व के लिए ऑनलाइन कंटेंट का संरक्षण; संघर्ष से संबंधित कंटेंट के मॉडरेशन पर Meta के क्लासिफ़ायर की डिज़ाइन का असर.

इस केस को लेकर लोगों की ओर से सबमिट किए गए कमेंट देखने के लिए कृपया यहाँ क्लिक करें.

8. ओवरसाइट बोर्ड का विश्लेषण

बोर्ड ने हथियारों से संबंधित कंटेंट के लिए बनी Meta की सभी पॉलिसी और सशस्त्र संघर्ष के संदर्भ में कंपनी के एन्फ़ोर्समेंट करने के तरीकों का आकलन करने के लिए इस केस को चुना. यह केस बोर्ड की संकट और संघर्ष की परिस्थितियों वाली रणनीतिक प्राथमिकता के तहत आता है.

8.1 Meta की कंटेंट पॉलिसी का अनुपालन

I. कंटेंट नियम

बोर्ड ने पाया कि पोस्ट से Meta की हिंसा और उकसावे से जुड़ी पॉलिसी का उल्लंघन हुआ है. फ़ोटो और कैप्शन का मिला-जुला असर “स्पष्ट रूप से लक्ष्य बताने वाली भाषा” की शर्तों की पूर्ति करता है जिनके तहत “हथियार बनाने या उपयोग करने के ऐसी भाषा में निर्देश देना प्रतिबंधित है जिसमें लोगों को गंभीर रूप से घायल करने या मारने का उद्देश्य स्पष्ट रूप से बताया गया हो.” Meta, पेट्रोल बम को हिंसा और उकसावे से जुड़ी पॉलिसी के तहत प्रतिबंधित हथियार मानता है. पोस्ट में पेट्रोल बम बनाने और उपयोग करने के चरण विस्तार से बताए गए हैं. इस विस्तृत गाइड और आग लगाने वाले डिवाइस को फेंकने वाले व्यक्ति की रक्षा के लिए “हेलमेट के उपयोग” की सलाह से लोगों को गंभीर रूप से घायल करने या मारने का इरादा जाना जा सकता है. इसका मतलब है कि पोस्ट में लोगों से निर्देशों को अमल में लाने का आह्वान किया गया है. बोर्ड ने जिन विशेषज्ञों से बात की, उनके अनुसार कैप्शन के अंत में जीत का आह्वान स्पष्ट रूप से सशस्त्र संघर्ष में एक पक्ष के लिए समर्थन दिखाता है.

कंटेंट आगे हिंसा और उकसावे के संबंध में उस प्रतिबंध का भी उल्लंघन करता है जिसमें “ऐसे कंटेंट की मनाही है जिसमें विस्फोटक बनाने या उपयोग करने के निर्देश दिए गए हों, बशर्ते कंटेंट को हिंसा न फैलाने संदर्भ में उपयोग न किया गया हो.” SAF का समर्थन करने के लिए हिंसा का सहारा लेना, गैर-हिंसक उद्देश्य नहीं है; ऐसे उद्देश्य, जैसा कि पॉलिसी में बताया गया है, “कमर्शियल वीडियो गेम, स्पष्ट वैज्ञानिक/शैक्षणिक उद्देश्य, आतिशबाज़ी या विशेष रूप से फ़िशिंग” तक सीमित हैं. बोर्ड ने नोट किया कि Meta के अनुसार यह प्रतिबंध इस बात पर ध्यान दिए बगैर लागू होता है कि Meta ने टार्गेट की गई एंटिटी को खतरनाक संगठनों और लोगों से जुड़े कम्युनिटी स्टैंडर्ड में खतरनाक संगठन या व्यक्ति के रूप में चिह्नित किया है या नहीं. Meta ने बोर्ड को बताया कि ऐसा इसलिए है क्योंकि “इन निर्देशों को शेयर करने से होने वाला एक नुकसान यह भी है कि उनका उपयोग ऐसे अन्य लोगों द्वारा किया जा सकता है जो दूसरे टार्गेट को नुकसान पहुँचाना चाहते हैं.” बोर्ड ने पाया कि इस केस के कंटेंट को हटाते समय, इस नियम को Meta की कंटेंट पॉलिसीज़ के अनुसार लागू किया गया था.

II. एन्फ़ोर्समेंट एक्शन

शत्रुतापूर्ण बयान के क्लासिफ़ायर ने इस कंटेंट को हिंसा और उकसावे से जुड़े कम्युनिटी स्टैंडर्ड का उल्लंघन करने वाले के रूप में सही पहचाना, लेकिन यूज़र को गलती से यह सूचना दी गई कि उनकी पोस्ट को नफ़रत फैलाने वाली भाषा के लिए हटाया गया. Meta के अनुसार ऐसा कंपनी के सिस्टम में एक बग के कारण हुआ. Meta ने बोर्ड को बताया कि जब उस अपनी गलती का एहसास हुआ, तब वह उसी सपोर्ट इनबॉक्स थ्रेड पर नया मैसेज नहीं भेज पाया. बोर्ड इस बात से चिंतित है कि Meta का यूज़र नोटिफ़िकेशन सिस्टम, उस स्थिति में कंपनी को अपनी गलतियाँ ठीक करने की सुविधा नहीं देता है, जब कंपनी द्वारा यूज़र को इस बारे में गलत सूचना दे दी जाए कि उसने किस कम्युनिटी स्टैंडर्ड का उल्लंघन किया है. इससे यूज़र्स को उनके कंटेंट को हटाए जाने के असली कारण की जानकारी नहीं मिल पाती. जैसा कि बोर्ड ने पहले कई केसों (जैसे अज़रबैजान में आर्मेनियाई, अयोहस्का पेय, नाज़ी उद्धरण) में हाइलाइट किया है, Meta को यूज़र्स को पारदर्शी रूप से यह बताना चाहिए कि उन्हें किन कंटेंट पॉलिसीज़ का उल्लंघन किया है.

8.2 Meta की मानवाधिकारों से जुड़ी ज़िम्मेदारियों का अनुपालन

बोर्ड ने पाया कि पोस्ट को हटाने का Meta का शुरुआती फ़ैसला, कंपनी की मानवाधिकारों से जुड़ी ज़िम्मेदारियों के अनुरूप था.

अभिव्यक्ति की आज़ादी (अनुच्छेद 19 ICCPR)

ICCPR के अनुच्छेद 19 में अभिव्यक्ति की विस्तृत सुरक्षा का प्रावधान है, जिसमें राजनैतिक अभिव्यक्ति शामिल है. इस अधिकार में “सभी प्रकार की जानकारी और आइडिया माँगना, पाना और देना” शामिल है. ये सुरक्षा उपाय, सशस्त्र संघर्ष की स्थिति में भी एक्टिव रहते हैं और Meta को अपनी मानवाधिकार संबंधी ज़िम्मेदारियों में इनकी मदद लेते रहना चाहिए. ये सुरक्षा उपाय ऐसे संघर्षों के दौरान लागू होने वाले अंतरराष्ट्रीय मानवतावादी कानून के परस्पर सुदृढ़ बनाने वाले और पूरक नियमों के साथ लागू किए जाते हैं ( सामान्य टिप्पणी 31, मानवाधिकार समिति, 2004, पैरा. 11; UNGP की कमेंटरी, सिद्धांत 12; सशस्त्र संघर्षों के दौरान गलत जानकारी और विचारों और अभिव्यक्ति की आज़ादी पर संयुक्त राष्ट्र का विशेष रैपर्टर, रिपोर्ट A/77/288, पैरा. 33-35 (2022); और सशस्त्र संघर्ष में मानवाधिकारों की अंतरराष्ट्रीय कानूनी सुरक्षा पर OHCHR की रिपोर्ट (2011) का पेज 59 भी देखें).

अभिव्यक्ति की आज़ादी पर संयुक्त राष्ट्र के विशेष रैपर्टर में कहा गया है कि “सशस्त्र संघर्ष के दौरान, लोग सबसे ज़्यादा असुरक्षित होते हैं और उन्हें अपनी सुरक्षा और कल्याण के लिए एकदम सही और भरोसेमंद जानकारी की सबसे ज़्यादा ज़रूरत होती है. फिर भी, ऐसी ही स्थितियों में उनके विचारों और अभिव्यक्ति की आज़ादी, जिसमें ‘सभी तरह की जानकारी और विचार माँगना, पाना और बताना शामिल है, युद्ध की परिस्थितियों और संघर्ष में शामिल पार्टियों के कृत्यों और राजनैतिक, सैन्य और रणनीतिक उद्देश्यों के लिए जानकारी में फेरबदल करने और उसे प्रतिबंधित करने वाले अन्य कारणों द्वारा सबसे ज़्यादा प्रतिबंधित की जाती हैं” (रिपोर्ट A/77/288, पैरा. 1). बोर्ड, संघर्ष के दौरान जानकारी शेयर करने की आज़ादी के महत्व को समझता है, ख़ास तौर पर जब सोशल मीडिया जानकारी का एकमात्र सोर्स हो. साथ ही वह यह सुनिश्चित करने का महत्व भी समझता है कि ऐसा कंटेंट वायरल न हो जिससे ऑफ़लाइन हिंसा के और भड़कने की आशंका हो.

जहाँ राज्य, अभिव्यक्ति पर प्रतिबंध लगाता है, वहाँ प्रतिबंधों को वैधानिकता, वैधानिक लक्ष्य और आवश्यकता तथा आनुपातिकता की शर्तों को पूरा करना चाहिए (अनुच्छेद 19, पैरा. 3, ICCPR). इन आवश्यकताओं को अक्सर “तीन भागों वाला परीक्षण” कहा जाता है. Meta की स्वैच्छिक मानवाधिकार प्रतिबद्धताओं को समझने के लिए बोर्ड इस फ़्रेमवर्क का उपयोग करता है - रिव्यू में मौजूद कंटेंट से जुड़े व्यक्तिगत फ़ैसले के लिए और यह जानने के लिए कि कंटेंट गवर्नेंस के प्रति Meta के व्यापक नज़रिए के बारे में यह क्या कहता है. पुराने केसों (जैसे अज़रबैजान में आर्मेनियाई, आर्मेनिया के युद्धबंदियों का वीडियो) की तरह बोर्ड, अभिव्यक्ति की आज़ादी के बारे में संयुक्त राष्ट्र के ख़ास रैपर्टर से सहमत है कि भले ही “कंपनियों का सरकारों के प्रति दायित्व नहीं है, लेकिन उनका प्रभाव इस तरह का है जो उनके लिए अपने यूज़र की सुरक्षा के बारे में इस तरह के सवालों का मूल्यांकन करना ज़रूरी बनाता है” (A/74/486, पैरा. 41). ऐसा करते समय, बोर्ड उन तरीकों के बारे में संवेदनशील रहने की कोशिश करता है जिनमें किसी प्राइवेट सोशल मीडिया कंपनी की मानवाधिकार से जुड़ी ज़िम्मेदारियाँ, अपने मानवाधिकार संबंधी दायित्वों को लागू करने वाली सरकार से अलग होती हैं.

I. वैधानिकता (नियमों की स्पष्टता और सुलभता)

वैधानिकता के सिद्धांत के अनुसार यह ज़रूरी है कि अभिव्यक्ति को सीमित करने वाले नियम, उन्हें एन्फ़ोर्स करने वाले लोगों और उनसे प्रभावित होने वाले लोगों के लिए एक्सेस करने लायक और स्पष्ट हों (सामान्य कमेंट सं. 34, पैरा. 25). यूज़र्स के पास यह अनुमान लगाने की सुविधा होनी चाहिए कि Facebook और Instagram पर कंटेंट पोस्ट करने के क्या परिणाम होंगे. अभिव्यक्ति की आज़ादी पर संयुक्त राष्ट्र के विशेष रैपर्टर में कंटेंट मॉडरेशन पॉलिसीज़ में “स्पष्टता और विशिष्टता” की ज़रूरत पर ज़ोर दिया गया है ( A/HRC/38/35, पैरा. 46).

बोर्ड ने पाया कि कुछ ख़ास परिस्थितियों में हथियार या विस्फोटक बनाने या उपयोग करने के निर्देशों को प्रतिबंधित करने वाला सामान्य नियम पर्याप्त रूप से स्पष्ट है और वैधानिकता की शर्तें पूरी करता है. हालाँकि बोर्ड ने यह भी नोट किया कि Meta, हिंसा और उकसावे से जुड़े कम्युनिटी स्टैंडर्ड की लोगों को दिखाई देने वाली भाषा में “मनोरंजक आत्मरक्षा” और “देश की सेना द्वारा प्रशिक्षण” जैसी अवधारणाओं की व्याख्या करके पॉलिसी के अपवादों को और स्पष्ट बना सकता है. बोर्ड, Meta के इस क्लेम से असहमत है कि इन शब्दों के अर्थ “सामान्य” हैं.

“मनोरंजक आत्मरक्षा” शब्द के संबंध में, बोर्ड यह मानता है कि Meta को यह स्पष्ट करना चाहिए कि किन लोगों को इसका फ़ायदा मिल सकता है और किन परिस्थितियों में अपवाद लागू होते हैं. इसके अलावा, लोगों को दिखाई देने वाले हिंसा और उकसावे से जुड़े कम्युनिटी स्टैंडर्ड में यह स्पष्ट रूप से नहीं बताया गया है कि शब्द में सशस्त्र संघर्ष की स्थितियों में आत्मरक्षा का संदर्भ शामिल नहीं है. “देश की सेना द्वारा प्रशिक्षण” के संबंध में, Meta यह स्पष्ट नहीं करता कि क्या यह मान्यता प्राप्त देशों की सेनाओं तक ही सीमित है और यह भी स्पष्ट नहीं है कि कंपनी स्वघोषित सरकारों की सेनाओं से किस तरह व्यवहार करती है.

बोर्ड की ओर से जिन स्टेकहोल्डर्स के साथ विचार-विमर्श किया गया, उन्होंने और साथ ही सार्वजनिक रिपोर्टिंग ने यह क्लेम किया है कि Meta ने कुछ सशस्त्र संघर्षों के दौरान आत्मरक्षा के लिए हथियार बनाने या उपयोग करने के निर्देशों की परमिशन दी है. बोर्ड के सवालों के जवाब में, Meta ने कहा कि इन रिपोर्ट में कोई सच्चाई नहीं है. बोर्ड इन विरोधाभासी दावों की सच्चाई तय करने की स्थिति में नहीं है. किसी भी स्थिति में, यह ज़रूरी है कि इस मुद्दे जैसे महत्वपूर्ण मुद्दे पर Meta के नियमों को एकरूपता से और गहनता से एन्फ़ोर्स किया जाए. सशस्त्र संघर्ष के दौरान जानकारी के आदान-प्रदान में Meta के प्लेटफ़ॉर्म के उपयोग को देखते हुए, जब लड़ाके और नागरिक दोनों हथियारों के उपयोग के बारे में जानकारी या आत्मरक्षा वाला हिंसक कंटेंट शेयर करेंगे, तब Meta को यह स्पष्ट करना चाहिए कि हिंसा और उकसावे से जुड़े कम्युनिटी स्टैंडर्ड में "मनोरंजनात्मक आत्मरक्षा" और "सैन्य प्रशिक्षण" अपवादों का क्या मतलब है.

इसके अलावा, बोर्ड ने पाया कि हिंसा और उकसावे से जुड़े कम्युनिटी स्टैंडर्ड में Meta की पॉलिसी का अपवाद, जो “आतंकवादी समूहों जैसे ख़ास हिंसक लोगों के लिए उपयोग की गई धमकियों” की परमिशन देता है, पर्याप्त रूप से स्पष्ट नहीं है, इसलिए वह वैधानिकता की शर्त की पूर्ति नहीं करता. इसमें यह स्पष्ट नहीं किया गया है कि क्या यह पॉलिसी लाइन, खतरनाक लोग और संगठन से जुड़े कम्युनिटी स्टैंडर्ड में चिह्नित सभी खतरनाक लोगों और संगठनों पर लागू होती है. इसके अलावा, खतरनाक लोग और संगठन से जुड़ी पॉलिसी के तहत चिह्नित संगठनों और लोगों की लिस्ट सार्वजनिक नहीं है. इससे यूज़र्स के लिए इस बारे में स्पष्टता की कमी और गंभीर होती है कि उनकी किस पोस्ट को हटाया जाएगा या रखा जाएगा क्योंकि खतरनाक संगठनों की Meta की लिस्ट छिपी हुई होने के कारण उन्हें यह जानकारी नहीं होती कि उनकी पोस्ट में बताई गई एंटिटी, उस लिस्ट में शामिल है या नहीं. बोर्ड ने इस पॉलिसी अपवाद पर हैती के पुलिस स्टेशन का वीडियो फ़ैसले में जताई गई चिंताओं को दोहराया.

II. वैधानिक लक्ष्य

अभिव्यक्ति की आज़ादी (अनुच्छेद 19, ICCPR) से संबंधित प्रतिबंधों का उद्देश्य वैधानिक लक्ष्य प्राप्त करना ही होना चाहिए. हिंसा और उकसावे की पॉलिसी का उद्देश्य ऐसे कंटेंट को हटाकर “ऑफ़लाइन नुकसान की संभावना को रोकना है” जिसमें “जान और माल के नुकसान का वास्तविक जोखिम या लोगों की सुरक्षा को सीधे खतरा” होता है. जैसा कि बोर्ड ने पहले राया कोबो में कथित अपराध केस के फ़ैसले में कहा था, यह पॉलिसी अन्य लोगों के जीवन के अधिकार जैसे अधिकारों की रक्षा करने के वैधानिक लक्ष्य को पूरा करती है (अनुच्छेद 6, ICCPR).

III. आवश्यकता और आनुपातिकता

आवश्यकता और आनुपातिकता के सिद्धांत के अनुसार यह ज़रूरी है कि अभिव्यक्ति की आज़ादी से संबंधित प्रतिबंध "रक्षा करने के उनके कार्य को सही तरीके से पूरा करने वाले होने चाहिए; उनसे उन लोगों के अधिकारों में कम से कम हस्तक्षेप होना चाहिए, जिन्हें उन प्रतिबंधों से होने वाले रक्षात्मक कार्यों का लाभ मिल सकता है [और] जिन हितों की सुरक्षा की जानी है, उसके अनुसार ही सही अनुपात में प्रतिबंध लगाए जाने चाहिए" (सामान्य कमेंट सं. 34, पैरा. 34). बोर्ड ने यह तय करने के लिए रबात के एक्शन प्लान की बातों पर भी विचार किया कि किस कंटेंट से हिंसा को उकसावा मिलता है (रबात का एक्शन प्लान, OHCHR, A/HRC/22/17/Add.4,2013). साथ ही देशों के लिए कानूनी दायित्वों और बिज़नेस के लिए मानवाधिकार से जुड़ी ज़िम्मेदारियों के बीच के अंतरों पर भी विचार किया. भले ही इस केस में शामिल पोस्ट राष्ट्रीयता, जाति या धर्म के आधार पर नफ़रत की तरफ़दारी नहीं करती, लेकिन इसके बावजूद रबात एक्शन प्लान यह आकलन करने का एक उपयोगी फ़्रेमवर्क ऑफ़र करता है कि कंटेंट अन्य लोगों को हिंसा के लिए उकसाता है या नहीं.

इस केस में, बोर्ड ने पाया कि Facebook से कंटेंट को हटाने का Meta का फ़ैसला, आवश्यकता और आनुपातिकता की शर्तें पूरी करता है. अपना विश्लेषण सूचित करने के लिए रबात के एक्शन प्लान के छह हिस्सों वाले टेस्ट का उपयोग करते हुए, बोर्ड ने पाया कि वह इस पोस्ट को हटाने का समर्थन करता है, जैसा कि नीचे बताया गया है.

पोस्ट करते समय कंटेंट क्रिएटर के इरादे पर ध्यान दिए बगैर, पेट्रोल बम बनाने की विस्तृत गाइड से सुरक्षा की पहले से नाजुक स्थिति में तात्कालिक नुकसान का वास्तविक जोखिम उत्पन्न हुआ. पोस्ट में जिस आग लगाने वाले हथियार की बात की गई थी, वह कुछ ख़ास पारंपरिक हथियारों पर समझौते के तहत प्रतिबंधित है क्योंकि वह हमले के एक साधन के रूप में गंभीर रूप से चोट पहुँचाने वाला और अविवेकपूर्ण है. विस्फोट के असर से न सिर्फ़ नागरिकों के घायल होने का गंभीर जोखिम है, बल्कि इससे लड़ाकों को “अनावश्यक कष्ट” भी हो सकता है या “उन्हें ज़रूरत से ज़्यादा चोट” भी लग सकती है, जिसे प्रचलित अंतरराष्ट्रीय मानवतावादी कानून द्वारा प्रतिबंधित किया गया है. जिन नागरिकों को कोई सैन्य प्रशिक्षण नहीं दिया गया है, उन्हें ऐसे आग लगाने वाले हथियारों को बनाने और उपयोग करने के लिए प्रेरित करने से ये जोखिम और गंभीर हो जाते हैं.

यूज़र के एक प्राइवेट इंडिविजुअल होने और प्रभावशाली न होने, जिसके कुछ ही दोस्त और फ़ॉलोअर हैं, के बावजूद तात्कालिक नुकसान का जोखिम मौजूद है. बोर्ड ने नोट किया कि Meta का शत्रुतापूर्ण बयान क्लासिफ़ायर, कंटेंट को पोस्ट किए जाने के कुछ ही मिनटों के भीतर उसका पता लगाने और हटाने में सक्षम था.

बोर्ड ने यह भी नोट किया कि कंटेंट को एक जारी सशस्त्र संघर्ष के संदर्भ में पोस्ट किया गया था. सशस्त्र संघर्ष के दो महीनों के भीतर जब इसे पोस्ट किया गया था, तब रिपोर्टिंग और विशेषज्ञविश्लेषण से यह जानकारी मिल रही थी कि SAF और RSF दोनों द्वारा मानवाधिकारों का व्यापक हनन किया जा रहा है. संयुक्त राष्ट्र, बोर्ड द्वारा परामर्श किए गए विशेषज्ञों और Genocide Watch (PC-19006, PC-19001) के कमेंट सहित सबमिट किए गए सार्वजनिक कमेंट्स के अनुसार, सशस्त्र संघर्ष में शामिल दोनों पार्टियों ने अंतरराष्ट्रीय मानवतावादी और मानवाधिकार कानूनों के कई हनन किए हैं, जिससे लाखों लोगों को विस्थापित होना पड़ा, उन्हें मनमाने ढंग से गिरफ़्तार कर लिया गया, उन पर यौन अत्याचार किए गए या उन्हें मार दिया गया. संघर्ष अभी भी चल रहा है और संयुक्त राष्ट्र सुरक्षा परिषद, नागरिक समाज समूहों और मानवाधिकार संगठनों द्वारा आलोचना के बावजूद उसके खत्म होने का कोई आसार नज़र नहीं आता. इस संदर्भ में, बोर्ड ने पाया कि इस केस में शामिल कंटेंट से हिंसा को उकसावा मिला, जिससे ख़ास तौर पर घातक और गैर-कानूनी हथियार का उपयोग करके शत्रुतापूर्ण गतिविधियों में नागरिकों के सीधे भाग लेने और संघर्ष के और बढ़ने का तात्कालिक जोखिम उत्पन्न हुआ.

हिंसा और उकसावे से जुड़ी पॉलिसी को एन्फ़ोर्स करते समय, Meta आत्मरक्षा के संदर्भ में इस पोस्ट में शामिल कंटेंट जैसे कंटेंट को परमिशन नहीं देता. बोर्ड ने इसे एक उचित दृष्टिकोण पाया और Meta से कहा कि वह इसे एकरूपता से एन्फ़ोर्स करे. UNGP के तहत, Meta की मानवाधिकार से जुड़ी ज़िम्मेदारियों में “सशस्त्र संघर्ष में अंतरराष्ट्रीय मानवतावादी कानून के स्टैंडर्ड” का सम्मान करना शामिल है (सिद्धांत 12 की कमेंटरी, UNGP). अंतरराष्ट्रीय मानवतावादी कानून, सशस्त्र संघर्ष में शामिल पार्टियों के लिए नागरिकों को अधिकतम सुरक्षा देने के स्टैंडर्ड प्रदान करता है (जैसे, सशस्त्र संघर्ष के दौरान नागरिकों की सुरक्षा करने के बारे में जिनेवा समझौते का अतिरिक्त प्रोटोकॉल II; आग लगाने वाले हथियारों के उपयोग को प्रतिबंधित करने के बारे में कुछ ख़ास पारंपरिक हथियारों पर समझौते का आर्टिकल 2, प्रोटोकॉल III). बोर्ड यह मानता है कि ये स्टैंडर्ड, सोशल मीडिया कंपनियों के लिए भी उस लक्ष्य को हासिल करने के लिए उपयोगी हो सकते हैं जब सशस्त्र संघर्ष की परिस्थितियों में उनके प्लेटफ़ॉर्म का उपयोग किया जाता है. इन स्टैंडर्ड के अनुसार, Meta को एक ऐसी पॉलिसी बनाने का लक्ष्य रखना चाहिए जो सशस्त्र संघर्ष की परिस्थितियों में नागरिकों और नागरिकों की प्रॉपर्टी को सबसे व्यापक सुरक्षा प्रदान करे. हिंसा और उकसावे से जुड़ी पॉलिसी पर लागू करते समय, इसका मतलब प्रामाणिक धमकियों को प्रतिबंधित करना है, चाहे टार्गेट कुछ भी हो.

समाधान की एक्सेस

बोर्ड, Meta की इस तकनीकी अक्षमता इस बात से चिंतित है कि जब यूज़र को ये नोटिफ़िकेशन भेजे जाते हैं कि उनके कंटेंट से किस नियम का उल्लंघन हुआ है, तो ऐसे नोटिफ़िकेशन में होने वाली गलतियों को वह ठीक नहीं कर सकता. यूज़र्स को उल्लंघन की सही सूचना देना, Meta के कम्युनिटी स्टैंडर्ड को एन्फ़ोर्स करने का एक महत्वपूर्ण घटक है और इससे यूज़र को निष्पक्षता और तय प्रोसेस का आश्वासन मिलता है. जब यूज़र को भेजे गए नोटिफ़िकेशन में कोई गलती होती है, तो Meta के प्लेटफ़ॉर्म पर अपील करने और समाधान पाने की यूज़र को क्षमता में कमी आती है. बोर्ड, Meta को तकनीकी रूप से ऐसे संभव तरीकों का पता लगाने के लिए प्रोत्साहित करता है जिससे वह यूज़र नोटिफ़िकेशन में सुधार कर सके.

9. ओवरसाइट बोर्ड का फ़ैसला

ओवरसाइट बोर्ड ने Meta के कंटेंट को हटाने के फ़ैसले को कायम रखा है.

10. सुझाव

कंटेंट पॉलिसी

1. यूज़र्स को बेहतर तरीके से यह बताने के लिए कि Meta के प्लेटफ़ॉर्म पर किस कंटेंट की परमिशन है, उसे हिंसा और उकसावे से जुड़ी अपनी पॉलिसी में बदलाव करके “मनोरंजनात्मक आत्मरक्षा” और “सैन्य प्रशिक्षण” की परिभाषा को उन नियमों के अपवाद में जोड़ना चाहिए जिनमें यूज़र्स को हथियार बनाने या उपयोग करने के निर्देश देना प्रतिबंधित है और यह स्पष्ट करना चाहिए कि किसी सशस्त्र संघर्ष के संदर्भ में वह हथियार बनाने या उपयोग करने के निर्देशों में आत्मरक्षा के किसी भी अपवाद की परमिशन नहीं देता.

बोर्ड इसे तब लागू मानेगा जब हिंसा और उकसावे से जुड़े कम्युनिटी स्टैंडर्ड को इन बदलावों से अपडेट कर दिया जाएगा.

एन्फ़ोर्समेंट

2. यह सुनिश्चित करने के लिए कि यूज़र्स के पास इस बात की जानकारी हो कि उनके कंटेंट पर कौन-सी पॉलिसी एन्फ़ोर्स की गई हैं, Meta को ऐसे टूल बनाने चाहिए जो यूज़र को इस बात की जानकारी देते समय होने वाली गलतियों को दूर करें कि यूज़र ने किस कम्युनिटी स्टैंडर्ड का उल्लंघन किया है.

बोर्ड इसे तब लागू मानेगा जब संबंधित रिव्यू और नोटिफ़िकेशन सिस्टम को इसके अनुसार अपडेट कर दिया जाए.

*प्रक्रिया संबंधी नोट:

ओवरसाइट बोर्ड के फ़ैसले पाँच मेंबर्स के पैनल द्वारा लिए जाते हैं और उन्हें बोर्ड के बहुमत के आधार पर स्वीकृति दी जाती है. ज़रूरी नहीं है कि बोर्ड के फ़ैसले, सभी सदस्यों की निजी राय दर्शाएँ.

इस केस के फ़ैसले के लिए, बोर्ड की ओर से स्वतंत्र रिसर्च करवाई गई थी. बोर्ड की सहायता एक स्वतंत्र शोध संस्थान ने की जिसका मुख्यालय गोथेनबर्ग यूनिवर्सिटी में है और जिसके पास छह महाद्वीपों के 50 से भी ज़्यादा समाजशास्त्रियों की टीम के साथ ही दुनियाभर के देशों के 3,200 से भी ज़्यादा विशेषज्ञ हैं. बोर्ड को Duco Advisers की सहायता भी मिली, जो भौगोलिक-राजनैतिक, विश्वास और सुरक्षा और टेक्नोलॉजी के आपसी संबंध पर काम करने वाली एक एडवाइज़री फ़र्म है. Memetica ने भी विश्लेषण उपलब्ध कराया जो सोशल मीडिया ट्रेंड पर ओपन-सोर्स रिसर्च में एंगेज होने वाला संगठन है. Lionbridge Technologies, LLC कंपनी ने भाषा संबंधी विशेषज्ञता की सेवा दी, जिसके विशेषज्ञ 350 से भी ज़्यादा भाषाओं में कुशल हैं और वे दुनियाभर के 5,000 शहरों से काम करते हैं.

मामले के निर्णयों और नीति सलाहकार राय पर लौटें