एकाधिक मामले का निर्णय

कॉलेज में विरोध प्रदर्शनों से जुड़े कार्टून

इन दो संक्षिप्त फ़ैसलों में, बोर्ड ने ऐसी दो पोस्ट का रिव्यू किया जिनमें कॉलेज के विरोध प्रदर्शन से जुड़े कार्टून थे.

2 इस बंडल में केस शामिल हैं

पलट जाना

FB-TO38JZ4O

Facebook पर खतरनाक लोग और संगठन से जुड़ा केस

प्लैटफ़ॉर्म
Facebook
विषय
अभिव्यक्ति की आज़ादी,राजनीति,विरोध
मानक
ख़तरनाक लोग और संगठन
जगह
अमेरिका
Date
पर प्रकाशित 12 सितम्बर 2024
पलट जाना

FB-0F4BU4NY

Facebook पर खतरनाक लोग और संगठन से जुड़ा केस

प्लैटफ़ॉर्म
Facebook
विषय
अभिव्यक्ति की आज़ादी,राजनीति,विरोध
मानक
ख़तरनाक लोग और संगठन
जगह
अमेरिका
Date
पर प्रकाशित 12 सितम्बर 2024

संक्षिप्त फ़ैसलों में उन केसों का परीक्षण किया जाता है जिनमें बोर्ड द्वारा कंटेंट पर Meta का ध्यान आकर्षित के बाद कंपनी ने कंटेंट के बारे में अपने मूल फ़ैसले को पलटा है और इसमें Meta द्वारा मानी गई गलतियों की जानकारी होती है. उन्हें पूरे बोर्ड के बजाय, बोर्ड के किसी सदस्य द्वारा स्वीकृत किया जाता है, उनमें पब्लिक कमेंट शामिल नहीं होते और उन्हें बोर्ड द्वारा आगे के फ़ैसलों के लिए आधार नहीं बनाया जा सकता. संक्षिप्त फ़ैसले, Meta के फ़ैसलों में सीधे बदलाव लाते हैं, इन सुधारों के बारे में पारदर्शिता देते हैं और साथ ही यह बताते हैं कि Meta अपने एन्फ़ोर्समेंट में कहाँ सुधार कर सकता है.

सारांश

इन दो संक्षिप्त फ़ैसलों में, बोर्ड ने ऐसी दो पोस्ट का रिव्यू किया जिनमें कॉलेज के विरोध प्रदर्शन से जुड़े कार्टून थे. Meta ने अपने शुरुआती रिव्यू में दोनों पोस्ट को हटा दिया. हालाँकि, जब बोर्ड ने अतिरिक्त रिव्यू के लिए Meta का ध्यान इन केसों पर आकर्षित किया, तो कंपनी ने अपने मूल फ़ैसले पलट दिए और दोनों पोस्ट को रीस्टोर कर दिया.

केस की जानकारी

पहले केस में, मई 2024 में Facebook के एक यूज़र ने एक कार्टून पोस्ट किया जिसमें दो लोग दिखाई दे रहे हैं. पहले व्यक्ति ने सिर पर एक पट्टा पहन रखा है जिस पर ‘हमास’ लिखा है और उसके हाथ में एक हथियार है. वह व्यक्ति कह रहा है कि वे यहूदी लोगों को तब तक मारते रहेंगे जब तक कि इज़राइल “दुनिया के नक्शे से मिट नहीं जाता.” दूसरे व्यक्ति ने टी-शर्ट पहन रखी है जिस पर “कॉलेज” लिखा है. उस व्यक्ति के हाथ में एक किताब है और वह कह रहा है कि "It's obvious they just want to live in peace" (यह स्पष्ट है कि वे शांति से रहना चाहते हैं). दूसरे केस में, अप्रैल 2024 में Facebook के एक यूज़र ने एक कार्टून पोस्ट किया जिसमें एक परिवार साथ बैठकर भोजन कर रहा है. बेटा लगने वाला व्यक्ति एडोल्फ़ हिटलर के रूप में है और उसने “I [heart] Hamas” (मैंने हमास को चोट पहुँचाई) लिखी शर्ट पहन रखी है. पिता लगने वाला व्यक्ति यह चिंता जता रहा है कि कॉलेज ने उसके बेटे को किस तरह बदल दिया. दोनों यूज़र्स ने पूरे अमेरिका की यूनिवर्सिटीज़ में इज़राइल-गाज़ा संघर्ष के संबंध में जारी प्रदर्शनों के संदर्भ में यह कंटेंट पोस्ट किया था.

Meta ने शुरुआत में अपनी खतरनाक संगठनों और लोगों (DOI) से जुड़ी पॉलिसी का हवाला देते हुए दोनों पोस्ट को Facebook से हटा दिया था. DOI पॉलिसी में कंपनी चिह्नित एंटिटी, उनके लीडर्स, संस्थापकों या प्रमुख लोगों के “महिमामंडन”, “समर्थन” और “प्रतिनिधित्व” के साथ-साथ, उनके अस्पष्ट रेफ़रेंस को भी हटा देती है.

बोर्ड को की गई अपनी अपीलों में, दोनों यूज़र्स ने कहा कि उन्होंने राजनैतिक कार्टून पोस्ट किया जिससे Meta के कम्युनिटी स्टैंडर्ड का उल्लंघन नहीं होता. बोर्ड द्वारा इन दोनों केसों को Meta के ध्यान में लाए जाने के बाद, कंपनी ने पाया कि पोस्ट से उसकी किसी भी पॉलिसी का उल्लंघन नहीं हुआ और दोनों कंटेंट को उसके प्लेटफ़ॉर्म पर रीस्टोर कर दिया गया.

बोर्ड का प्राधिकार और दायरा

बोर्ड को उस यूज़र के अपील करने के बाद Meta के फ़ैसले का रिव्यू करने का अधिकार है, जिसका कंटेंट हटा दिया गया था (चार्टर अनुच्छेद 2, सेक्शन 1; उपनियम अनुच्छेद 3, सेक्शन 1).

जहाँ बोर्ड द्वारा रिव्यू किए जा रहे केस में Meta यह स्वीकार करता है कि उससे गलती हुई है और वह अपना फ़ैसला पलट देता है, वहाँ बोर्ड उस केस का चुनाव संक्षिप्त फ़ैसले के लिए कर सकता है (उपनियम अनुच्छेद 2, सेक्शन 2.1.3). बोर्ड, कंटेंट मॉडरेशन प्रोसेस के बारे में ज़्यादा जानकारी पाने, गलतियों में कमी लाने और Facebook, Instagram और Threads के यूज़र्स के लिए निष्पक्षता बढ़ाने के लिए मूल फ़ैसले का रिव्यू करता है.

केस की सार्थकता

ये केस, Meta की खतरनाक संगठनों और लोगों से जुड़ी पॉलिसी के अपवाद के एन्फ़ोर्समेंट में होने वाली गलतियाँ हाइलाइट करते हैं. ये अपवाद “खतरनाक संगठनों और लोगों और उनकी एक्टिविटी की रिपोर्टिंग, निष्पक्ष चर्चा या आलोचना” करने वाले कंटेंट को “सामाजिक और राजनैतिक बातचीत” की रक्षा करने के लिए पोस्ट करने की परमिशन देते हैं.

बोर्ड ने Meta की खतरनाक संगठनों और लोगों से जुड़ी पॉलिसी और उसके अपवादों के एन्फ़ोर्समेंट में पारदर्शिता बढ़ाने के लिए कई सुझाव दिए हैं. बोर्ड ने इस पॉलिसी के एन्फ़ोर्समेंट से जुड़ी चुनौतियों के समाधान के लिए भी कई सुझाव दिए हैं. इसमें “सिस्टम की जिन समस्याओं के कारण एन्फ़ोर्समेंट में गलतियाँ हो रही हैं, उनका पता लगाने के लिए खतरनाक संगठनों और लोगों से जुड़ी पॉलिसी के तहत रिपोर्टिंग की छूट एन्फ़ोर्स करने वाले रिव्यूअर्स की सटीकता का आकलन करने” का सुझाव शामिल है. Meta ने इस सुझाव को लागू करना रिपोर्ट किया, लेकिन इसे दिखाने के लिए उसने कोई भी जानकारी प्रकाशित नहीं की (न्यूज़ रिपोर्टिंग में तालिबान का उल्लेख, सुझाव सं. 5).

बोर्ड ने यह सुझाव भी दिया कि “Meta, खतरनाक संगठनों और लोगों से जुड़ी अपनी पॉलिसी में शर्तें और विवरणात्मक उदाहरण जोड़े ताकि अपवादों के बारे में लोगों को ज़्यादा जानकारी मिले, खास तौर पर निष्पक्ष चर्चाओं और न्यूज़ रिपोर्टिंग के बारे में.” Meta ने इसके बारे में प्रकाशित जानकारी के ज़रिए क्रियान्वयन दर्शाया है (अल जज़ीरा की शेयर की गई पोस्ट, सुझाव सं. 1). इसके अलावा, पॉलिसी एडवाइज़री टीम की राय में बोर्ड ने Meta से कहा कि वह “उन तरीकों की जानकारी दे जिनका उपयोग वह खतरनाक संगठनों और लोगों से जुड़ी अपनी पॉलिसी के एन्फ़ोर्समेंट में ह्यूमन रिव्यू की सटीकता और ऑटोमेटेड सिस्टम की परफ़ॉर्मेंस का आकलन करने के लिए करता है,” (चिह्नित खतरनाक लोगों को “शहीद” कहना, सुझाव सं. 6). Meta ने इस सुझाव की भाषा बदल दी. कंपनी ने अपने कंटेंट मॉडरेशन फ़ैसलों की सटीकता के लिए किए जाने वाले ऑडिट की जानकारी शेयर की और भी बताया कि इस ऑडिट से यह कैसे पता चलता है कि कहाँ सुधार की ज़रूरत है. हालाँकि, Meta ने यह नहीं बताया कि वह ये आकलन करने के लिए किन तरीकों का उपयोग करता है. न ही कंपनी ने ऐसे आकलनों के परिणाम शेयर करने की प्रतिबद्धता दिखाई.

इसके अलावा, बोर्ड ने व्यंग्यात्मक कंटेंट पर Meta के एन्फ़ोर्समेंट के संबंध में एक सुझाव दिया है. इसमें Meta से यह सुनिश्चित करने का सुझाव शामिल है कि “हास्य कंटेंट और प्रासंगिक संदर्भ का ठीक से आकलन करने के लिए उसके पास पर्याप्त कार्यविधियाँ मौजूद हैं. इसमें कंटेंट मॉडरेटर्स को ये सुविधाएँ देना शामिल है: (i) प्रासंगिक सांस्कृतिक और बैकग्राउंड से जुड़ी जानकारी पाने के लिए Facebook की लोकल ऑपरेशन टीमों की एक्सेस; और (ii) Facebook की लोकल ऑपरेशन टीमों के साथ परामर्श करने और मूल्यांकन करने के लिए पर्याप्त समय. [Meta] को यह सुनिश्चित करना चाहिए कि कंटेंट मॉडरेटर्स के लिए उनकी पॉलिसी में मॉडरेटर्स को बारीकी से छानबीन करने या ऐसी स्थिति में एस्केलेट के लिए प्रोत्साहित किया गया हो, जहाँ वे यह तय नहीं कर पाएँ कि कोई मीम व्यंग्यपूर्ण है या नहीं.” Meta ने कहा है कि उसने इस सुझाव को लागू कर दिया है, लेकिन उसने इसे दिखाने वाली कोई जानकारी प्रकाशित नहीं की (“दो बटन” वाला मीम फ़ैसला, सुझाव क्र. 3). बोर्ड ने यह सुझाव भी दिया है कि Meta को नफ़रत फैलाने वाली भाषा से जुड़े कम्युनिटी स्टैंडर्ड की लोगों को दिखाई देने वाली भाषा में व्यंग्यात्मक कंटेंट से जुड़ा अपवाद शामिल करना चाहिए. Meta ने प्रकाशित जानकारी के ज़रिए इसका क्रियान्वयन दर्शाया है, ( “दो बटन” वाला मीम फ़ैसला, सुझाव क्र. 2).

फ़ैसला

बोर्ड ने दो पोस्ट के कंटेंट को हटाने के Meta के मूल फ़ैसलों को पलट दिया. बोर्ड द्वारा केसों को Meta के ध्यान में लाए जाने के बाद, Meta द्वारा मूल फ़ैसलों की गलती में किए गए सुधारों को बोर्ड ने स्वीकार किया.

मामले के निर्णयों और नीति सलाहकार राय पर लौटें