एकाधिक मामले का निर्णय

गाज़ा के युद्ध की रिपोर्ट

इन दो संक्षिप्त फ़ैसलों में, बोर्ड ने दो पोस्ट का रिव्यू किया जिनमें गाज़ा के युद्ध से जुड़ी रिपोर्टिंग की गई थी.

2 इस बंडल में केस शामिल हैं

पलट जाना

FB-VXKB1TZ5

Facebook पर खतरनाक लोग और संगठन से जुड़ा केस

प्लैटफ़ॉर्म
Facebook
विषय
अभिव्यक्ति की आज़ादी,पत्रकारिता,युद्ध और विवाद
मानक
ख़तरनाक लोग और संगठन
जगह
इज़राइल,फ़िलिस्तीनी क्षेत्र
Date
पर प्रकाशित 4 जून 2024
पलट जाना

IG-50OFM0LV

Instagram पर खतरनाक लोग और संगठनों से जुड़ा केस

प्लैटफ़ॉर्म
Instagram
विषय
अभिव्यक्ति की आज़ादी,पत्रकारिता,युद्ध और विवाद
मानक
ख़तरनाक लोग और संगठन
जगह
इज़राइल,फ़िलिस्तीनी क्षेत्र
Date
पर प्रकाशित 4 जून 2024

संक्षिप्त फ़ैसलों में उन केसों का परीक्षण किया जाता है जिनमें बोर्ड द्वारा कंटेंट पर Meta का ध्यान आकर्षित के बाद कंपनी ने कंटेंट के बारे में अपने मूल फ़ैसले को पलटा है और इसमें Meta द्वारा मानी गई गलतियों की जानकारी होती है. उन्हें पूरे बोर्ड के बजाय, बोर्ड के किसी सदस्य द्वारा स्वीकृत किया जाता है, उनमें पब्लिक कमेंट शामिल नहीं होते और उन्हें बोर्ड द्वारा आगे के फ़ैसलों के लिए आधार नहीं बनाया जा सकता. संक्षिप्त फ़ैसले, Meta के फ़ैसलों में सीधे बदलाव लाते हैं, इन सुधारों के बारे में पारदर्शिता देते हैं और साथ ही यह बताते हैं कि Meta अपने एन्फ़ोर्समेंट में कहाँ सुधार कर सकता है.

सारांश

इन दो संक्षिप्त फ़ैसलों में, बोर्ड ने दो पोस्ट का रिव्यू किया जिनमें गाज़ा के युद्ध से जुड़ी रिपोर्टिंग की गई थी. जब बोर्ड ने Meta का ध्यान इन दो अपीलों पर आकर्षित किया, तो कंपनी ने अपना मूल फ़ैसला पलट दिया और दोनों पोस्ट को रीस्टोर कर दिया.

केस की जानकारी

पहले केस में, Instagram के एक यूज़र ने Channel 4 News (UK) की एक रिपोर्ट से फ़रवरी 2024 में एक शॉर्ट वीडियो पोस्ट किया जिसमें एक फ़िलिस्तीनी बच्चे की हत्या दिखाई गई थी. वीडियो के कैप्शन में यह स्पष्ट रूप से कहा गया था कि वह खतरनाक संगठनों और लोगों को बढ़ावा नहीं देता और यह कि इसमें एक फ़िलिस्तीनी परिवार और मानवतावादी कार्यकर्ताओं की स्टोरी है.

दूसरे केस में, Facebook के एक यूज़र ने जनवरी 2024 में गाज़ा के युद्ध पर Al-Jazeera की रिपोर्टिंग का एक वीडियो पोस्ट किया. क्लिप में इज़राइल और हमास के बीच बंधकों की रिहाई से जुड़ी बातचीत की रिपोर्टिंग और विश्लेषण था.

Meta ने शुरुआत में अपनी खतरनाक संगठन और लोगों से जुड़ी पॉलिसी का हवाला देते हुए पोस्ट को Instagram और Facebook से हटा दिया था. इस पॉलिसी में कंपनी चिह्नित एंटिटी, उनके लीडर्स, संस्थापकों या प्रमुख लोगों के “महिमामंडन”, “समर्थन” और “प्रतिनिधित्व” के साथ-साथ, उनके अस्पष्ट रेफ़रेंस को भी हटा देती है.

बोर्ड को की गई अपनी अपीलों में, दोनों यूज़र्स ने कहा कि वे वीडियो, मीडिया आउटलेट की रिपोर्ट्स थीं और उनसे Meta के कम्युनिटी स्टैंडर्ड का उल्लंघन नहीं होता. बोर्ड द्वारा इन दोनों केसों को Meta के ध्यान में लाए जाने के बाद, कंपनी ने पाया कि पोस्ट से उसकी किसी भी पॉलिसी का उल्लंघन नहीं हुआ और दोनों कंटेंट को उसके प्लेटफ़ॉर्म पर रीस्टोर कर दिया गया.

बोर्ड का प्राधिकार और दायरा

बोर्ड को उन यूज़र्स के अपील करने के बाद Meta के फ़ैसले का रिव्यू करने का अधिकार है, जिनका कंटेंट हटा दिया गया था (चार्टर आर्टिकल 2, सेक्शन 1; उपनियम अनुच्छेद 3, सेक्शन 1).

जहाँ बोर्ड द्वारा रिव्यू किए जा रहे केस में Meta यह स्वीकार करता है कि उससे गलती हुई है और वह अपना फ़ैसला पलट देता है, वहाँ बोर्ड उस केस का चुनाव संक्षिप्त फ़ैसले के लिए कर सकता है (उपनियम अनुच्छेद 2, सेक्शन 2.1.3). बोर्ड, कंटेंट मॉडरेशन प्रोसेस के बारे में ज़्यादा जानकारी पाने, गलतियों में कमी लाने और Facebook, Instagram और Threads के यूज़र्स के लिए निष्पक्षता बढ़ाने के लिए मूल फ़ैसले का रिव्यू करता है.

केस की सार्थकता

ये केस, खतरनाक संगठनों और लोगों से जुड़ी पॉलिसी के अपवाद के एन्फ़ोर्समेंट में होने वाली गलतियाँ हाइलाइट करते हैं. ये अपवाद “खतरनाक संगठनों और लोगों और उनकी एक्टिविटी की रिपोर्टिंग, निष्पक्ष चर्चा या आलोचना” करने वाले कंटेंट को “सामाजिक और राजनैतिक बातचीत” की रक्षा करने के लिए पोस्ट करने की परमिशन देते हैं. इस तरह की गलती से गाज़ा और अन्य संघर्ष प्रभावित क्षेत्रों में जारी संघर्ष की रिपोर्टिंग और उनके बारे में जागरूकता फैलाने की वास्तविक कोशिशें कमज़ोर होती हैं.

बोर्ड ने खतरनाक संगठनों और लोगों से जुड़ी Meta की पॉलिसी के एन्फ़ोर्समेंट को बेहतर बनाने के लिए कई सुझाव दिए हैं. पॉलिसी एडवाइज़री टीम की राय में बोर्ड ने Meta से कहा कि वह “उन तरीकों की जानकारी दे जिनका उपयोग वह खतरनाक संगठनों और लोगों से जुड़ी अपनी पॉलिसी के एन्फ़ोर्समेंट में ह्यूमन रिव्यू की सटीकता और ऑटोमेटेड सिस्टम की परफ़ॉर्मेंस का आकलन करने के लिए करता है,” (चिह्नित खतरनाक लोगों को “शहीद” कहना, सुझाव सं. 6). बोर्ड ने Meta से यह भी कहा कि वह “सिस्टम की जिन समस्याओं के कारण एन्फ़ोर्समेंट में गलतियाँ हो रही हैं, उनका पता लगाने के लिए Meta को खतरनाक संगठनों और लोगों से जुड़ी पॉलिसी के तहत रिपोर्टिंग की छूट देने वाले रिव्यूअर्स की सटीकता का आकलन करे.” Meta ने कहा है कि उसने इस सुझाव को लागू कर दिया है लेकिन इसे दिखाने वाली कोई जानकारी प्रकाशित नहीं की है. (न्यूज़ रिपोर्टिंग में तालिबान का उल्लेख, सुझाव क्र. 5). इसके अलावा, बोर्ड ने यह सुझाव दिया है कि “Meta, खतरनाक संगठनों और लोगों से जुड़ी अपनी पॉलिसी में शर्तें और विवरणात्मक उदाहरण जोड़े ताकि अपवादों के बारे में लोगों को ज़्यादा जानकारी मिले, खास तौर पर निष्पक्ष चर्चाओं और न्यूज़ रिपोर्टिंग के बारे में.” Meta ने इसके बारे में प्रकाशित जानकारी के ज़रिए क्रियान्वयन दर्शाया है (अल जज़ीरा की शेयर की गई पोस्ट, सुझाव सं. 1).

फ़ैसला

बोर्ड ने दो पोस्ट के कंटेंट को हटाने के Meta के मूल फ़ैसलों को पलट दिया. बोर्ड द्वारा केसों को Meta के ध्यान में लाए जाने के बाद, Meta द्वारा मूल फ़ैसलों की गलती में किए गए सुधारों को बोर्ड ने स्वीकार किया.

मामले के निर्णयों और नीति सलाहकार राय पर लौटें