एकाधिक मामले का निर्णय
गाज़ा के युद्ध की रिपोर्ट
इन दो संक्षिप्त फ़ैसलों में, बोर्ड ने दो पोस्ट का रिव्यू किया जिनमें गाज़ा के युद्ध से जुड़ी रिपोर्टिंग की गई थी.
2 इस बंडल में केस शामिल हैं
FB-VXKB1TZ5
Facebook पर खतरनाक लोग और संगठन से जुड़ा केस
IG-50OFM0LV
Instagram पर खतरनाक लोग और संगठनों से जुड़ा केस
संक्षिप्त फ़ैसलों में उन केसों का परीक्षण किया जाता है जिनमें बोर्ड द्वारा कंटेंट पर Meta का ध्यान आकर्षित के बाद कंपनी ने कंटेंट के बारे में अपने मूल फ़ैसले को पलटा है और इसमें Meta द्वारा मानी गई गलतियों की जानकारी होती है. उन्हें पूरे बोर्ड के बजाय, बोर्ड के किसी सदस्य द्वारा स्वीकृत किया जाता है, उनमें पब्लिक कमेंट शामिल नहीं होते और उन्हें बोर्ड द्वारा आगे के फ़ैसलों के लिए आधार नहीं बनाया जा सकता. संक्षिप्त फ़ैसले, Meta के फ़ैसलों में सीधे बदलाव लाते हैं, इन सुधारों के बारे में पारदर्शिता देते हैं और साथ ही यह बताते हैं कि Meta अपने एन्फ़ोर्समेंट में कहाँ सुधार कर सकता है.
सारांश
इन दो संक्षिप्त फ़ैसलों में, बोर्ड ने दो पोस्ट का रिव्यू किया जिनमें गाज़ा के युद्ध से जुड़ी रिपोर्टिंग की गई थी. जब बोर्ड ने Meta का ध्यान इन दो अपीलों पर आकर्षित किया, तो कंपनी ने अपना मूल फ़ैसला पलट दिया और दोनों पोस्ट को रीस्टोर कर दिया.
केस की जानकारी
पहले केस में, Instagram के एक यूज़र ने Channel 4 News (UK) की एक रिपोर्ट से फ़रवरी 2024 में एक शॉर्ट वीडियो पोस्ट किया जिसमें एक फ़िलिस्तीनी बच्चे की हत्या दिखाई गई थी. वीडियो के कैप्शन में यह स्पष्ट रूप से कहा गया था कि वह खतरनाक संगठनों और लोगों को बढ़ावा नहीं देता और यह कि इसमें एक फ़िलिस्तीनी परिवार और मानवतावादी कार्यकर्ताओं की स्टोरी है.
दूसरे केस में, Facebook के एक यूज़र ने जनवरी 2024 में गाज़ा के युद्ध पर Al-Jazeera की रिपोर्टिंग का एक वीडियो पोस्ट किया. क्लिप में इज़राइल और हमास के बीच बंधकों की रिहाई से जुड़ी बातचीत की रिपोर्टिंग और विश्लेषण था.
Meta ने शुरुआत में अपनी खतरनाक संगठन और लोगों से जुड़ी पॉलिसी का हवाला देते हुए पोस्ट को Instagram और Facebook से हटा दिया था. इस पॉलिसी में कंपनी चिह्नित एंटिटी, उनके लीडर्स, संस्थापकों या प्रमुख लोगों के “महिमामंडन”, “समर्थन” और “प्रतिनिधित्व” के साथ-साथ, उनके अस्पष्ट रेफ़रेंस को भी हटा देती है.
बोर्ड को की गई अपनी अपीलों में, दोनों यूज़र्स ने कहा कि वे वीडियो, मीडिया आउटलेट की रिपोर्ट्स थीं और उनसे Meta के कम्युनिटी स्टैंडर्ड का उल्लंघन नहीं होता. बोर्ड द्वारा इन दोनों केसों को Meta के ध्यान में लाए जाने के बाद, कंपनी ने पाया कि पोस्ट से उसकी किसी भी पॉलिसी का उल्लंघन नहीं हुआ और दोनों कंटेंट को उसके प्लेटफ़ॉर्म पर रीस्टोर कर दिया गया.
बोर्ड का प्राधिकार और दायरा
बोर्ड को उन यूज़र्स के अपील करने के बाद Meta के फ़ैसले का रिव्यू करने का अधिकार है, जिनका कंटेंट हटा दिया गया था (चार्टर आर्टिकल 2, सेक्शन 1; उपनियम अनुच्छेद 3, सेक्शन 1).
जहाँ बोर्ड द्वारा रिव्यू किए जा रहे केस में Meta यह स्वीकार करता है कि उससे गलती हुई है और वह अपना फ़ैसला पलट देता है, वहाँ बोर्ड उस केस का चुनाव संक्षिप्त फ़ैसले के लिए कर सकता है (उपनियम अनुच्छेद 2, सेक्शन 2.1.3). बोर्ड, कंटेंट मॉडरेशन प्रोसेस के बारे में ज़्यादा जानकारी पाने, गलतियों में कमी लाने और Facebook, Instagram और Threads के यूज़र्स के लिए निष्पक्षता बढ़ाने के लिए मूल फ़ैसले का रिव्यू करता है.
केस की सार्थकता
ये केस, खतरनाक संगठनों और लोगों से जुड़ी पॉलिसी के अपवाद के एन्फ़ोर्समेंट में होने वाली गलतियाँ हाइलाइट करते हैं. ये अपवाद “खतरनाक संगठनों और लोगों और उनकी एक्टिविटी की रिपोर्टिंग, निष्पक्ष चर्चा या आलोचना” करने वाले कंटेंट को “सामाजिक और राजनैतिक बातचीत” की रक्षा करने के लिए पोस्ट करने की परमिशन देते हैं. इस तरह की गलती से गाज़ा और अन्य संघर्ष प्रभावित क्षेत्रों में जारी संघर्ष की रिपोर्टिंग और उनके बारे में जागरूकता फैलाने की वास्तविक कोशिशें कमज़ोर होती हैं.
बोर्ड ने खतरनाक संगठनों और लोगों से जुड़ी Meta की पॉलिसी के एन्फ़ोर्समेंट को बेहतर बनाने के लिए कई सुझाव दिए हैं. पॉलिसी एडवाइज़री टीम की राय में बोर्ड ने Meta से कहा कि वह “उन तरीकों की जानकारी दे जिनका उपयोग वह खतरनाक संगठनों और लोगों से जुड़ी अपनी पॉलिसी के एन्फ़ोर्समेंट में ह्यूमन रिव्यू की सटीकता और ऑटोमेटेड सिस्टम की परफ़ॉर्मेंस का आकलन करने के लिए करता है,” (चिह्नित खतरनाक लोगों को “शहीद” कहना, सुझाव सं. 6). बोर्ड ने Meta से यह भी कहा कि वह “सिस्टम की जिन समस्याओं के कारण एन्फ़ोर्समेंट में गलतियाँ हो रही हैं, उनका पता लगाने के लिए Meta को खतरनाक संगठनों और लोगों से जुड़ी पॉलिसी के तहत रिपोर्टिंग की छूट देने वाले रिव्यूअर्स की सटीकता का आकलन करे.” Meta ने कहा है कि उसने इस सुझाव को लागू कर दिया है लेकिन इसे दिखाने वाली कोई जानकारी प्रकाशित नहीं की है. (न्यूज़ रिपोर्टिंग में तालिबान का उल्लेख, सुझाव क्र. 5). इसके अलावा, बोर्ड ने यह सुझाव दिया है कि “Meta, खतरनाक संगठनों और लोगों से जुड़ी अपनी पॉलिसी में शर्तें और विवरणात्मक उदाहरण जोड़े ताकि अपवादों के बारे में लोगों को ज़्यादा जानकारी मिले, खास तौर पर निष्पक्ष चर्चाओं और न्यूज़ रिपोर्टिंग के बारे में.” Meta ने इसके बारे में प्रकाशित जानकारी के ज़रिए क्रियान्वयन दर्शाया है (अल जज़ीरा की शेयर की गई पोस्ट, सुझाव सं. 1).
फ़ैसला
बोर्ड ने दो पोस्ट के कंटेंट को हटाने के Meta के मूल फ़ैसलों को पलट दिया. बोर्ड द्वारा केसों को Meta के ध्यान में लाए जाने के बाद, Meta द्वारा मूल फ़ैसलों की गलती में किए गए सुधारों को बोर्ड ने स्वीकार किया.