एकाधिक मामले का निर्णय
मैक्सिको में मेयर पद के उम्मीदवार की हत्या
12 दिसम्बर 2024
मैक्सिको में मेयर पद के उम्मीदवार जोस अल्फ़्रेडो काबरेरा बारेंतोस की हत्या से जुड़े चार वीडियो के इस केस में, बोर्ड ने यह नोट किया कि Meta ने पोस्ट के साथ किस तरह अलग-अलग व्यवहार किया जबकि उनमें से तीन को खबरों में रहने लायक होने की छूट देते हुए प्लेटफ़ॉर्म पर बनाए रखा जाना चाहिए था.
4 इस बंडल में केस शामिल हैं
FB-ZZ1PC8GA
Facebook पर खतरनाक लोग और संगठन से जुड़ा केस
IG-KWS5YL10
Instagram पर खतरनाक लोग और संगठनों से जुड़ा केस
IG-ZZR570SK
Instagram पर खतरनाक लोग और संगठनों से जुड़ा केस
IG-BGIFPMQ2
Instagram पर खतरनाक लोग और संगठनों से जुड़ा केस
पूरे फ़ैसले की PDF यहाँसे डाउनलोड करें.
सारांश
मैक्सिको में मेयर पद के उम्मीदवार जोस अल्फ़्रेडो काबरेरा बारेंतोस की हत्या से जुड़े चार वीडियो के इस केस में, बोर्ड ने यह नोट किया कि Meta ने पोस्ट के साथ किस तरह अलग-अलग व्यवहार किया जबकि उनमें से तीन को खबरों में रहने लायक होने की छूट देते हुए प्लेटफ़ॉर्म पर बनाए रखा जाना चाहिए था. इन तीन पोस्ट को न्यूज़ आउटलेट द्वारा शेयर किया गया था और इनमें स्पष्ट रूप से मैक्सिको के चुनावों के पहले हुई राजनैतिक हत्या की रिपोर्टिंग की गई थी: Meta ने दो बनाए रखा जबकि एक को हटा दिया. ऐसे मुद्दों की रिपोर्टिंग को हटाना, जिन पर लोगों द्वारा बहस की जा रही हो, ज़रूरी जानकारी तक लोगों की ऐक्सेस को सीमित करता है और स्वतंत्र अभिव्यक्ति में बाधा डालता है. सरकार के भ्रष्टाचार और संगठित अपराध की रिपोर्टिंग पर मैक्सिको में न्यूज़ आउटलेट द्वारा झेले जा रहे जोखिमों को देखते हुए यह चिंताजनक है. भले ही इन केसों में खबरों में रहने लायक छूट का असमान उपयोग किया गया था, लेकिन बोर्ड ने इस छूट के असर के बारे में भी अपनी चिंताएँ जाहिर कीं. इसका समाधान करने के लिए, बोर्ड ने मॉस्को में आतंकवादी हमले का फ़ुटेज फ़ैसले के अपने हाल ही के सुझाव को दोहराया, जिसमें बोर्ड ने उस नियम में एक अपवाद जोड़ने के लिए कहा था जो चिह्नित हमलों के वक्त के पीड़ितों को दिखाने वाली थर्ड पार्टी इमेजरी को परमिशन नहीं देता है. इस अपडेट किए गए तरीके से सभी यूज़र्स के लिए निष्पक्ष व्यवहार सुनिश्चित करने में मदद मिलेगी.
केस की जानकारी
मई 2024 में, मैक्सिको के गुरेरो राज्य के मेयर पद के उम्मीदवार की हत्या से जुड़े चार कंटेंट को लैटिन अमेरिका में न्यूज़ मीडिया के अकाउंट से पोस्ट या फिर से शेयर किया गया था. सभी चार पोस्ट में जोस अल्फ़्रेडो काबरेरा बारेंतोस के एक जैसे वीडियो थे जिसमें एक कैंपेन के दौरान उन पर बंदूक से निशाना लगाया था. उसके बाद अस्पष्ट फ़ोटो और गोलियों की आवाज़ शामिल थी.
पहले दो केस में बड़े मीडिया संगठनों द्वारा शेयर की गई पोस्ट थीं. पहली पोस्ट के कैप्शन में इस बात की चर्चा की गई थी कि चुनाव के चक्र के दौरान कितने उम्मीदवारों की हत्या हुई है, जबकि वीडियो के ऑडियो में लोक अभियोजक के कार्यालय से यह बताया जा रहा है कि जब काबरेरा बारेंतोस की हत्या हुई, तब वे सुरक्षा में थे. इसे लगभग 59,000 बार देखा गया. दूसरी पोस्ट में वीडियो की संवेदनशीलता के बारे में एक चेतावनी थी और गुरेरा के गवर्नर द्वारा हत्या की निंदा से जुड़े बयान की रिपोर्टिंग थी. इसे दस लाख से ज़्यादा बार देखा गया था.
Meta ने अपनी खतरनाक संगठनों और लोगों से जुड़ी पॉलिसी के तहत इस हत्या को एक उल्लंघन करने वाली हिंसक घटना चिह्नित किया था, इसलिए वीडियो के एक अन्य वर्जन को पहले ही मीडिया मैचिंग सर्विस (MMS) बैंक में जोड़ा गया था. MMS को समान कंटेंट को हटाने के लिए प्रोग्राम किया गया है. पॉलिसी के तहत, यूज़र्स को ऐसी इमेजरी शेयर करने की परमिशन नहीं है जिसमें चिह्नित हमलों के समय के ऐसे दृश्य हों जिनमें पीड़ित भी दिखाई दे रहे हों. पहली दो पोस्ट, जिन्हें MMS बैंक द्वारा पहचाना गया और अतिरिक्त रिव्यू के लिए Meta के विषयवस्तु विशेषज्ञों के पास भेजा गया, को Meta के नियमों का उल्लंघन करने के बावजूद बनाए रखा गया. उन्हें खबरों में रहने लायक होने की छूट दी गई, जो कभी-कभी ऐसे कंटेंट को दी जाती है जिसे Meta अत्यधिक जनहित वैल्यू वाला मानता है. दोनों पोस्ट Meta के प्लेटफ़ॉर्म पर “परेशान करने वाला” चेतावनी स्क्रीन और ख़बरों में रहने लायक होने के लेबल के साथ बनी रहीं, लेकिन उन्हें बोर्ड को रेफ़र किया गया.
तीसरे और चौथे केस में, यूज़र ने अपनी पोस्ट को हटाने के Meta के फ़ैसलों के खिलाफ़ बोर्ड को अपील की. तीसरी पोस्ट में एक वीडियो को फिर से शेयर किया गया था, जिसके ऊपर एक मैसेज जोड़कर कहा गया था कि उसका सेंसर न किया गया वर्जन Telegram पर उपलब्ध है. इसे 17,000 बार देखा गया था. चौथी पोस्ट में यह बताने वाला कैप्शन शामिल किया गया था कि घटनास्थल पर किसे गोली लगी और कौन घायल हुआ. इसे 11,000 बार देखा गया था. MMS बैंक द्वारा दोनों पोस्ट को पहचाने जाने के बाद, उन्हें हटा दिया गया.
काबरेरा बारेंतोस की हत्या 2 जून को मैक्सिको में राष्ट्रव्यापी चुनावों की कैंपेनिंग के अंतिम दिन हुई थी. देश में हाल ही में हुए चुनावों में राजनैतिक हिंसा एक मुख्य मुद्दा रहा है जिसके लिए संगठित अपराध आंशिक रूप से ज़िम्मेदार था. इसके कारण उम्मीदवार, अपनी जान बचाने के लिए चुनावों से पीछे हट रहे थे.
मुख्य निष्कर्ष
पहली दो पोस्ट को ख़बरों में रहने लायक होने के कारण अपने प्लेटफ़ॉर्म पर बनाए रखने का फ़ैसला लेते समय Meta सही था, लेकिन बोर्ड मानता है कि चौथे केस में Instagram से पोस्ट को हटाने का कंपनी का फ़ैसला सही नहीं था. इस पोस्ट की जनहित वैल्यू भी अत्यधिक थी. अलग-अलग फ़ैसले लेने के पीछे कोई ठोस कारण नहीं था. बोर्ड द्वारा चौथे केस को चुने जाने के बाद भी, Meta, खबरों में रहने लायक होने से जुड़ी वही छूट लागू करने में विफल रहा और उसने कहा कि यूज़र्स को वायरल होने की सूचना देकर पोस्ट में फ़ुटेज के बारे में सनसनी फैलाई गई. हालाँकि, यह जानकारी गोलीबारी के बारे में बताने के साथ-साथ दी गई, जिसमें हताहत हुए लोगों की संख्या की जानकारी, गवर्नर का बयान और घटना में हमलावर के मारे जाने का तथ्य शामिल था. भले ही काबरेरा बारेंतोस दिखाई दे रहे थे और उन्हें पहचाना जा सकता था, वह एक सार्वजनिक हस्ती थे और चुनावी रैली में भाग ले रहे थे, इसलिए प्राइवेसी से जुड़ी चिंताएँ कम हो जाती हैं और जनहित वैल्यू को नुकसान के जोखिम पर प्राथमिकता मिलती है.
तीसरी पोस्ट के बारे में, जिसमें पीड़ितों को दिखाने वाली हमलों की थर्ड पार्टी इमेजरी शेयर करने पर Meta के प्रतिबंध से बचने के लिए वीडियो के सेंसर न किए गए ग्राफ़िक वर्जन का Telegram लिंक देखने के लिए यूज़र्स को कहा गया था, बोर्ड के बहुसंख्य सदस्य Meta की इस बात से सहमत हैं कि इस कंटेंट से सुरक्षा और प्राइवेसी के जोखिम उत्पन्न होते हैं और उसे हटाया जाना चाहिए था. बोर्ड के इस सदस्यों के अनुसार, खबरों में रहने लायक होने की छूट न देकर Meta ने सही किया, खास तौर पर यह देखते हुए कि पोस्ट में कोई अतिरिक्त कैप्शन या कमेंटरी नहीं थी जिससे यूज़र्स को पता चले कि उसका उद्देश्य हत्या की निंदा करना है. बोर्ड के कुछ सदस्य इस बात से असहमत हैं और उनके अनुसार तीसरी पोस्ट को भी खबरों में रहने लायक होने की छूट दी जानी चाहिए थी क्योंकि इसका कंटेंट भी अन्य पोस्ट जैसा ही था.
जैसा कि बोर्ड ने हाल ही में मॉस्को में आतंकवादी हमले का फ़ुटेज फ़ैसले में कहा था कि चिह्नित हमलों की इमेजरी को कई कारणों से शेयर किया जा सकता है. Meta इस बात से चिंतित है कि ऐसे कंटेंट से आपराधिक समूहों की गतिविधियों का महिमामंडन, समर्थन या प्रतिनिधित्व होगा, लेकिन यह नियम यूज़र्स को थर्ड पार्टी की ऐसी इमेजरी शेयर करने की परमिशन नहीं देता जिसमें चिह्नित हमलों में पीड़ित दिखाई दे रहे हों और ऐसे कंटेंट को हटा दिया जाता है जिसमें नुकसान का कम जोखिम हो या न हो. इन केसों के संबंध में, विशेषज्ञों ने नोट किया कि मैक्सिको में आपराधिक समूह, लोगों को भर्ती करने के उद्देश्य से राजनैतिक हत्याओं के वीडियो का उपयोग आम तौर पर नहीं करते हैं, लेकिन वे डराने के लिए इन्हें शेयर कर सकते हैं. इसके अलावा, बोर्ड को इस बात का कोई सबूत नहीं मिला कि इस फ़ुटेज को अपराधियों द्वारा रिकॉर्ड किया गया था या नकल करने के व्यवहार को प्रेरित करने के लिए इसका उपयोग किया जा रहा था.
बोर्ड ने पाया कि चौथी पोस्ट को खबरों में रहने लायक होने की छूट दी जानी चाहिए था, लेकिन उसने नोट किया कि इस छूट का उपयोग बहुत कम मामलों में किया जाता है क्योंकि Meta के लिए यह पता लगाने के सीमित तरीके हैं कि किस कंटेंट को इसका फ़ायदा दिया जाए. छूट देने पर विचार करने के लिए ज़रूरी कई कारकों के साथ मिलकर, इससे छूट के बेतरतीब उपयोग के जोखिम बढ़ते हैं जो यूज़र के लिए नुकसानदेह है. इसलिए बोर्ड यह मानता है कि Meta की पॉलिसी में Meta के मौजूदा नज़रिए को दिखाने के लिए एक बदलाव ज़रूरी है, जैसा कि ‘मॉस्को में आतंकवादी हमले का फ़ुटेज’ फ़ैसले में कहा गया है.
ओवरसाइट बोर्ड का फ़ैसला
ओवरसाइट बोर्ड ने पहले तीन केसों में Meta के फ़ैसलों का कायम रखा. बोर्ड ने चौथे केस में Meta के फ़ैसले को बदल दिया और पोस्ट को “परेशान करने वाला” चेतावनी स्क्रीन के साथ रीस्टोर करने के लिए कहा.
बोर्ड ने हाल ही के ‘मॉस्को में आतंकवादी हमले का फ़ुटेज’ फ़ैसले के अपने सुझाव को दोहराते हुए कहा कि Meta को “परेशान करने वाला” चेतावनी स्क्रीन के साथ चिह्नित हमलों की ऐसी थर्ड पार्टी इमेजरी को न्यूज़ रिपोर्टिंग, जागरूकता फैलाने या निंदा करने के लिए परमिशन देनी चाहिए जिसमें हमले के समय के दृश्यों को पीड़ितों के साथ दिखाया गया हो लेकिन जिनमें पीड़ितों की पहचान न की जा सकती हो.
*केस के सारांश से केस का ओवरव्यू मिलता है और भविष्य में लिए जाने वाले किसी फ़ैसले के लिए इसको आधार नहीं बनाया जा सकता है.
केस का पूरा फ़ैसला
1. केस की जानकारी और बैकग्राउंड
30 मई, 2024 को चार अलग-अलग अकाउंट से जोस अल्फ़्रेडो काबरेरा बारेंतोस की हत्या के बारे में पोस्ट की गई, जो मैक्सिको के गुरेरो राज्य में कोयुका डे बेनिटेज़ नगरीय निकाय के मेयर का चुनाव लड़ रहे थे. चुनावी रैली के दौरान उनकी एक दिन पहले गोली मारकर हत्या कर दी गई थी. चार कंटेंट, एक Facebook पर और तीन Instagram पर, को लैटिन अमेरिका में मौजूद न्यूज़ मीडिया अकाउंट से या तो पोस्ट किया गया था या फिर से शेयर किया गया था. पोस्ट में मिलते-जुलते वीडियो थे, जिनमें दिखाया गया था कि गोली मारे जाने से पहले बेरितोंस अपने निर्वाचकों से हाथ मिला रहे हैं. ब्लर या अस्पष्ट इमेज के बाद गोलियों और लोगों की चीखों की आवाज़ थी. हर पोस्ट के साथ स्पैनिश भाषा में एक कैप्शन था जिसमें गोलीबारी के तथ्य दिए गए थे.
Meta ने काबरेरा बेरिंतोस की हत्या को अपनी खतरनाक संगठनों और लोगों से जुड़ी पॉलिसी के तहत उल्लंघन करने वाली हिंसक घटना चिह्नित किया. इसका अर्थ है कि अन्य बातों के अलावा, यूज़र्स को ऐसी इमेजरी शेयर करने की परमिशन नहीं है जिसमें चिह्नित हमलों के समय के ऐसे दृश्य हों जिनमें पीड़ित भी दिखाई दे रहे हों. Meta के विषयवस्तु विशेषज्ञों ने वीडियो के एक अन्य वर्जन को उल्लंघन करने वाला मानते हुए उसे मीडिया मैचिंग सर्विस (MMS) बैंक में जोड़ा था जिसे इस कंटेंट को हटाने के लिए प्रोग्राम किया गया था.
पहली पोस्ट एक बड़े मीडिया संगठन द्वारा शेयर की गई थी जिसके कैप्शन में कहा गया था कि मैक्सिको के मौजूदा चुनावी चक्र में राजनैतिक कार्यालय के 23 उम्मीदवारों की हत्या की गई है. फ़ुटेज से जुड़े ऑडियो में ज़्यादा जानकारी दी गई थी, जिसमें लोक अभियोजक के कार्यालय का यह बयान शामिल था कि हमलावर भी मारा गया है और यह तथ्य कि जब काबरेरा बारेंतोस की हत्या हुई, उस समय उन्हें सुरक्षा उपलब्ध थी. इस पोस्ट को लगभग 59,000 बार देखा गया.
दूसरी पोस्ट को भी एक बड़े मीडिया संगठन द्वारा शेयर किया गया था और उसमें यूज़र ने एक चेतावनी जोड़ी थी कि वीडियो संवेदनशील है. कैप्शन में गुरेरो के गवर्नर का बयान शामिल किया गया है जिसमें उन्होंने हत्या की निंदा की है और परिवार के प्रति संवेदना व्यक्त की है. इसे दस लाख से ज़्यादा बार देखा गया था.
इन दो पोस्ट को Meta ने बोर्ड को रेफ़र किया. इस कंटेंट को अपने आप हटाए जाने के लिए प्रोग्राम किए गए MMS बैंक द्वारा पहचाने जाने के बाद, पोस्ट को अतिरिक्त रिव्यू के लिए Meta के विषयवस्तु विशेषज्ञों के पास भेजा गया. बोर्ड ने पहले इस तरह के सिस्टम्स की जानकारी दी है जिसमें इस तरह का एस्केलेशन हो सकता है (उदाहरण के लिए Meta के क्रॉस-चेक प्रोग्राम से जुड़ी पॉलिसी के लिए पॉलिसी एडवाइज़री टीम की राय देखें). विषयवस्तु विशेषज्ञों ने पाया कि पोस्ट्स से खतरनाक संगठनों और लोगों से जुड़ी पॉलिसी का उल्लंघन होता है. हालाँकि, उन्होंने जनहित वैल्यू को देखते हुए इन पोस्ट को प्लेटफ़ॉर्म पर बनाए रखने के लिए खबरों में रहने लायक होने की छूट दी. इसलिए पोस्ट्स, “परेशान करने वाला” चेतावनी स्क्रीन और ख़बरों में रहने लायक होने के लेबल के साथ प्लेटफ़ॉर्म पर बनी रहीं.
तीसरे केस में, यूज़र ने एक अन्य मीडिया संगठन का कंटेंट फिर से शेयर किया, लेकिन उसमें अपनी तरफ से कुछ भी नहीं जोड़ा. फिर से शेयर किए गए वीडियो में हत्या से पहले उम्मीदवार के पलों को कैद किया गया था, उस पल सहित जब उन पर बंदूक तानी गई थी. कैप्शन में किसी अतिरिक्त संदर्भ के बिना हत्या की जानकारी दी गई थी. वीडियो पर एक मैसेज लगाया गया है जिसे कैप्शन में भी शामिल किया गया है. इसमें व्यूअर्स से कहा गया है कि वे Telegram पर वीडियो का “सेंसर न किया गया” वर्जन देख सकते हैं. इसे लगभग 17,000 बार देखा गया.
चौथी पोस्ट को एक मीडिया संगठन द्वारा शेयर किया गया था जिसके कैप्शन में नोट किया गया था कि एक हमलावर को घटनास्थल पर ही मार गिराया गया था और यह कि उम्मीदवार के अलावा, तीन अन्य लोग घायल हुए थे. इसे लगभग 11,000 बार देखा गया. MMS बैंक द्वारा दोनों पोस्ट को पहचाने जाने के बाद, उन्हें हटा दिया गया था. इन दो केसों में दोनों यूज़र्स ने बोर्ड को अपील की.
बोर्ड ने अपना फ़ैसला करते समय नीचे दिए संदर्भ पर ध्यान दिया.
जोस अल्फ़्रेडो काबरेरा बेरिंतोस, विपक्षी राजनैतिक पार्टियों PRI-PAN-PRD के गठबंधन के उम्मीदवार थे और कोयुका डे बेनिटेज़ के मेयर पद के लिए चुनाव लड़ रहे थे. हत्या 2 जून, 2024 को राष्ट्रव्यापी चुनावों की कैंपेनिंग के अंतिम दिन हुई थी. उस समय, काबरेरा बेरिंतोस को विशेष सुरक्षा दी गई थी और उनके साथ एक सुरक्षा टीम मौजूद थी. इन केसों की पहली और चौथी पोस्ट सहित अन्य रिपोर्ट में कहा गया कि घटनास्थल पर एक हमलावर को गोली लगी और वह मारा गया. कम से कम एक अन्य व्यक्ति, जिसके हमले में शामिल होने का संदेह था, गिरफ़्तार किया गया और बाद में कैद में उसकी मौत हो गई.
यह हत्या, मैक्सिको में राजैनितक हिंसा के व्यापक संदर्भ में हुई. 2018 के चुनावी चक्र के दौरान, संगठित अपराध को लगभग आधी राजनैतिक हिंसा के लिए कथित रूप से ज़िम्मेदार बताया गया था, क्योंकि “जब राजनेता या राजनैतिक उम्मीदवार आपराधिक समूहों के साथ सहयोग नहीं करते हैं, तो उन्हें दुश्मन समझा जाता है जो अप्रत्यक्ष रूप से हत्या या धमकी का निशाना बनाता है.”
2021 के चुनावी चक्र के दौरान, संयुक्त राष्ट्र (UN) और क्षेत्रीय मानवाधिकार विशेषज्ञों ने मैक्सिको में चुनाव से पहले की अवधि और कैंपेन के दौरान राजनीति से जुड़ी 250 हत्याएँ रिपोर्ट कीं. उन विशेषज्ञों ने आगे नोट किया कि “कम से कम 782 अन्य राजनीति से प्रेरित हमले हुए हैं जिनमें राजनेताओं को हत्या की धमकी से लेकर हत्या की कोशिश तक शामिल हैं.”
इस हिंसा का उम्मीदवारों पर बुरा असर पड़ा है. संयुक्त राष्ट्र के मानवाधिकार विशेषज्ञों के अनुसार, 2021 के चुनावी चक्र में, “कई उम्मीदवार अपनी जान का जोखिम बताते हुए चुनावों से बाहर हो गए.” अंतरराष्ट्रीय और क्षेत्रीय विशेषज्ञों ने आगे “अपनी पसंद का उम्मीदवार चुनने के नागरिकों के अधिकार” पर इसका असर हाइलाइट किया. 2024 के हालिया चुनावी चक्र में 8,000 से ज़्यादा उम्मीदवारों ने कथित रूप से चुनाव से अपने नाम वापस लिए. यह संख्या पिछले चुनावों से ज़्यादा है. राजनैतिक हिंसा का संदर्भ इसके पीछे का कारण बताया जा रहा है. इंटर-अमेरिकन कमीशन ऑन ह्यूमन राइट्स ( IACHR) ने भी उम्मीदवारों पर हिंसा की निंदा की है: “पिछले वर्ष से चिंताजनक रूप से हिंसक कामों की एक सीरीज़ देखी गई है, जिसमें भावी उम्मीदवारों, उम्मीदवारों और विभिन्न राजनैतिक आंदोलनों या संबद्धताओं के लीडर्स या कार्यकर्ताओं की हत्या होना, उन्हें धमकी देना और उनका अपहरण करना शामिल है.” IACHR के अनुसार मार्च 2024 से 24 मई, 2024 के बीच, कम से कम 15 भावी उम्मीदवारों और उम्मीदवारों की हत्या हुई. इनके साथ ही ऐसे नौ अन्य लोगों की हत्या भी हुई जिन्होंने चुनाव में भाग लेने की इच्छा जताई थी या जो अनाधिकारिक उम्मीदवार थे.
पत्रकारों की सुरक्षा करने वाली कमिटी (CPJ) और पारदेशी संगठित अपराध के खिलाफ़ वैश्विक नवाचार के अनुसार, मैक्सिको, पत्रकारों के लिए पूरी दुनिया में सबसे खतरनाक देशों में से एक है. फ़्रीडम हाउस की मैक्सिको पर 2024 की रिपोर्ट के अनुसार: “संगठित अपराध की रिपोर्ट करने वाले ब्लॉगर और ऑनलाइन पत्रकारों पर गिरोह हमले कर रहे हैं और उन्हें धमकियाँ दे रहे हैं. सेल्फ़-सेंसरशिप बढ़ गई है और हिंसक क्षेत्रों के कई समाचारपत्र ऐसे समाचार छापने से बच रहे हैं जो संगठित अपराध से जुड़े होते हैं.” उन पत्रकारों की हत्या की जा रही है जो सरकारी अधिकारियों और आपराधिक गिरोहों के बीच संबंधों की रिपोर्टिंग कर रहे हैं. इसके कारण लोगों की आवाज़ और भी दब रही है और उनमें डर का माहौल है.
मैक्सिको के आपराधिक गिरोह कथित रूप से “Facebook पर एक्टिव हैं… [और वे इस प्लेटफ़ॉर्म का उपयोग विरोधी समूहों और नागरिकों को डराने में करते हैं].” हालाँकि, बोर्ड ने जिन विशेषज्ञों से परामर्श किया, उन्होंने संकेत दिया कि मैक्सिको के आपराधिक समूह, सामान्य तौर पर राजनैतिक हत्याओं के वीडियो का उपयोग लोगों को भर्ती करने के साधन के रूप में नहीं करते, लेकिन वे हिंसक इमेजरी को पत्रकारों सहित अपने विरोधियों को डराने के लिए करते हैं.
2. यूज़र सबमिशन
दूसरे केस में कंटेंट पोस्ट करने वाले न्यूज़ आउटलेट, जिसे खबरों में रहने लायक होने के कारण Meta ने Instagram पर बनाए रखा था, ने बोर्ड को एक कथन सबमिट किया. सबमिशन में कहा गया कि मैक्सिको में चुनावी संदर्भ को देखते हुए हत्या से जुड़ी जानकारी को शेयर करना महत्वपूर्ण है. पोस्ट में हत्या के संबंध में महत्वपूर्ण तथ्यात्मक पृष्ठभूमि शामिल थी और उसमें गुरेरो के गवर्नर द्वारा जारी बयान की रिपोर्टिंग की गई थी. तीसरे और चौथे केस में कंटेंट पोस्ट करने वाले यूज़र्स ने बोर्ड को Meta के कंटेंट हटाने के फ़ैसले के खिलाफ़ अपील की. बोर्ड को दिए अपने कथनों में, उन्होंने कहा कि वे हिंसा और आतंकवाद के बारे में एक महत्वपूर्ण समाचार की रिपोर्टिंग कर रहे हैं. उन्होंने कहा कि कंटेंट हटाए जाने के कारण वे परेशान हैं.
3. Meta की कंटेंट पॉलिसी और सबमिशन
I. Meta की कंटेंट पॉलिसी
खतरनाक संगठन और लोगों से जुड़ा कम्युनिटी स्टैंडर्ड
खतरनाक संगठनों और लोगों से जुड़ी पॉलिसी बनाने के कारण के अनुसार वास्तव में होने वाले नुकसान को रोकने और नाकाम करने की कोशिश में Meta ऐसे किसी भी संगठन या व्यक्ति को अपने प्लेटफ़ॉर्म पर मौजूद रहने की परमिशन नहीं देता जो किसी हिंसक मिशन की घोषणा करता है या हिंसा में शामिल होता है. कम्युनिटी स्टैंडर्ड “ऐसे कंटेंट को भी प्रतिबंधित करता है जिसमें ऐसी घटनाओं का महिमामंडन, समर्थन या प्रतिनिधित्व किया गया हो, जिन्हें Meta उल्लंघनकारी हिंसात्मक घटनाएँ मानता है”. इनमें “आतंकवादी हमले” और “एक से ज़्यादा लोगों को शिकार बनाने वाली हिंसा या एक से ज़्यादा लोगों को शिकार बनाने वाली हिंसा की कोशिश” शामिल हैं. Meta इन्हें प्रतिबंधित करता है: “(1) ऐसे हमलों के अपराधियों का महिमामंडन, समर्थन या प्रतिनिधित्व; (2) ऐसे हमलों के बारे में अपराधियों द्वारा जेनरेट किया गया कंटेंट या (3) दिखाई देने वाले पीड़ितों पर ऐसे हमलों के पल को दिखाती थर्ड पार्टी की फ़ोटो और वीडियो,” (ज़ोर दिया गया).
रिव्यूअर्स के लिए आंतरिक गाइडलाइन के अनुसार, Meta ऐसी फ़ोटो और वीडियो को हटा देता है जिनमें हमले के पलों को दिखाया गया हो और उनमें पीड़ित भी दिखाई दे रहे हों, “चाहे उन्हें शेयर करने का संदर्भ कुछ भी हो.” Meta के लिए यह ज़रूरी नहीं है कि कंटेंट में पीड़ित उसी समय दिखाई दे जब हिंसा हो रही हो. उसमें सिर्फ़ यह स्पष्ट होना चाहिए कि पीड़ित को ध्यान में रखते हुए हिंसा की गई है और फ़ुटेज में पीड़ित किसी न किसी जगह दिखाई दे रहा है.
हिंसक और आपत्तिजनक कंटेंट से जुड़ा कम्युनिटी स्टैंडर्ड
हिंसक और आपत्तिजनक कंटेंट से जुड़ी पॉलिसी बनाने के कारण में कहा गया है कि कंपनी यह समझती है कि “आपत्तिजनक और हिंसक इमेजरी को लेकर लोगों की संवेदनशीलता अलग-अलग होती है.” Meta इसलिए अधिकांश आपत्तिजनक कंटेंट को हटा देता है और अन्य आपत्तिजनक कंटेंट को परमिशन देता है और उस पर चेतावनी लेबल लगाता है. यह पॉलिसी “परेशान करने वाला” चेतावनी स्क्रीन के साथ “ऐसी इमेजरी की परमिशन देती है जिनमें लोगों की हिंसक मृत्यु दिखाई गई हो (उनकी मृत्यु के पल या उसके बाद की घटनाओं सहित) या जब कोई व्यक्ति जानलेवा घटना का अनुभव कर रहा हो.” चेतावनी स्क्रीन के कारण 18 वर्ष से ज़्यादा उम्र के लोग ही इसे देख पाते हैं और कंटेंट का सुझाव ऐसे यूज़र्स को नहीं दिया जाता जो अकाउंट को फ़ॉलो नहीं करते हैं. पॉलिसी ऐसी इमेजरी को तब प्रतिबंधित करती है जब उनमें अंगों को अलग-अलग करना दिखाया गया हो, अंदर के अंग दिखाए गए हों, लोगों को जलाया जा रहा हो या उनका गला काटा जा रहा हो.
खबरों में रहने लायक होने की छूट
कुछ परिस्थितियों में कंपनी ऐसे कंटेंट को प्लेटफ़ॉर्म पर बने रहने की परमिशन देती है जिससे उसकी पॉलिसीज़ का उल्लंघन होता है, अगर वह “ खबरों में रहने लायक हो और जब उसे दिखाना जनहित में हो.” इसका निर्धारण करते समय, “[Meta] यह आकलन करेगा कि क्या कंटेंट से लोगों के स्वास्थ्य या सुरक्षा को तात्कालिक खतरा है या क्या उससे राजनीतिक प्रक्रिया के रूप में फ़िलहाल बहस का विषय बने हुए दृष्टिकोण ज़ाहिर किए जा सकते हैं.” Meta के अनुसार, उसके विश्लेषण में देश की विशेष परिस्थितियों, अभिव्यक्ति की प्रकृति और प्रभावित देश की राजनैतिक संरचना पर विचार किया जाता है. Meta उस कंटेंट पर भी चेतावनी स्क्रीन लगा सकता है जिसे वा इस छूट के तहत बनाए रखता है और 18 वर्ष से कम उम्र के लोगों को कंटेंट को देखने से रोक सकता है. अंत में कंपनी का कहना है कि: “खबरों में रहने लायक होने की छूट ‘सीमित’ हो सकती है, जिसमें छूट, किसी एक कंटेंट के लिए हो सकती है या ‘व्यापक’ हो सकती है, जिसे किसी वाक्यांश जैसी किसी चीज़ पर व्यापक रूप से लागू किया जा सकता है.”
II. Meta के सबमिशन
Meta ने जोस अल्फ़्रेडो काबरेरा बेरिंतोस की हत्या को हमले के ठीक बाद अपनी खतरनाक संगठनों और लोगों से जुड़ी पॉलिसी के तहत उल्लंघन करने वाली हिंसक घटना चिह्नित किया. Meta ने तय किया कि सभी चार पोस्ट ने “चिह्नित हमलों के पीड़ितों को दिखाने वाले पलों को दिखाने वाली थर्ड पार्टी इमेजरी” को प्रतिबंधित करने वाली कंपनी की पॉलिसी का उल्लंघन होता है.
कंपनी ने बताया कि वह सामान्य तौर पर ऐसी सभी इमेजरी को दो मुख्य कारणों से हटा देती है, भले ही उन्हें किसी भी संदर्भ में शेयर किया गया हो. पहला कारण सुरक्षा है. कंपनी के अनुसार, इस कंटेंट को हटाने से लोगों के नकल करने के व्यवहार पर लगाम लगेगी और ऐसे कंटेंट का फैलाव रुकेगा जो अपराधी को प्रसिद्ध करता है या जिसमें कोई प्रोपेगंडा हो सकता है. दूसरा कारण यह है कि पीड़ितों और उनके परिवारों की प्राइवेसी और गरिमा महत्वपूर्ण है. कंपनी का लक्ष्य ऐसे पीड़ितों और उनके प्रियजनों की गरिमा की रक्षा करना भी है “जिन्होंने लोगों की जिज्ञासा का विषय बनने और मीडिया का आकर्षण बनने की सहमति नहीं दी है.”
कुछ खास हमलों को चिह्नित करने से Meta को मुख्य घटनाओं पर अपनी प्रतिक्रिया के रूप में अपनी खतरनाक संगठनों और लोगों से जुड़ी पॉलिसी के तहत अपने सभी प्लेटफ़ॉर्म से कंटेंट को तुरंत हटाने की सुविधा मिलती है.
Meta ने कहा कि वह इस पॉलिसी का उल्लंघन करने वाले कुछ कंटेंट को खबरों में रहने लायक होने की छूट देता है. Meta के अनुसार, उन चिंताओं को देखते हुए जिनका समाधान करना इस पॉलिसी का लक्ष्य है, इन छूट का दायरा बहुत ही सीमित होता है और ये छूट आम तौर पर उन फ़ुटेज को दी जाती है जिन्हें न्यूज़ रिपोर्टिंग के लिए जाने-माने मीडिया आउटलेट द्वारा शेयर किया जाता है.
पहले दो केसों में, कंपनी ने यह मानते हुए खबरों में रहने लायक होने की छूट दी कि कंटेंट को पोस्ट करने वाले दो न्यूज़ आउटलेट की “पहुँच राष्ट्रव्यापी” है और इस तथ्य को देखते हुए कि कैप्शन में फ़ुटेज का संदर्भ दिया गया है. कंपनी ने पाया कि इन पोस्ट की अत्यधिक जनहित वैल्यू है क्योंकि सार्वजनिक चर्चा के लिए चुनावी चक्र के साथ हिंसा और असुरक्षा का संबंध प्रासंगिक है. Meta ने “चुनाव के दिन के पास होने के कारण सभी जोखिमों की संभावना से इंकार नहीं किया, खास तौर पर उन क्षेत्रों में अन्य उम्मीदवारों पर इसी तरह के हमलों से, जहाँ उन्हें कम सुरक्षा उपलब्ध है. साथ ही उम्मीदवारों के परिवार के सम्मान को संभावित जोखिम भी है.” इसके बावजूद, कंपनी ने इस तथ्य पर विचार किया कि समाचार संगठन ने “इमेजरी को सनसनीखेज़ तरीके से शेयर करने से बचने के लिए संपादकीय कदम उठाए” और “उसमें ऐसे कैप्शन शामिल किए जो फ़ुटेज के बारे में इस बात का व्यापक संदर्भ देते हैं कि हिंसा और असुरक्षा ने किस तरह चुनावी चक्र को प्रभावित किया है और उन्होंने घटना के बारे में कानून लागू करने वाली आधिकारिक संस्था के जवाब की जानकारी शामिल की.” पहली पोस्ट में ठीक गोलीबारी के समय का फ़ुटेज शामिल नहीं था और दूसरी पोस्ट में उनकी अपनी चेतावनी स्क्रीन दिखाई गई थी.
जब Meta ने इन दो पोस्ट को खबरों में रहने लायक होने की “सीमित” छूट दी, तब कंपनी ने यूज़र्स को यह बताने के लिए एक लेबल (या “खबरों में रहने लायक व्यवहार करने की सूचना”) लगाया कि पोस्ट को लोगों को जागरूक बनाने के उद्देश्य से परमिशन दी गई है. उसमें “परेशान करने वाला” चेतावनी स्क्रीन भी लगाई गई ताकि 18 वर्ष से कम उम्र के यूज़र्स को वह कंटेंट दिखाई न दे. जिन यूज़र्स ने इन दो खास पोस्ट को फिर से शेयर किया, उन्हें भी इस छूट का फ़ायदा दिया गया. अन्य अकाउंट की किसी भी पोस्ट को हत्या के फ़ुटेज के संबंध में खबरों में रहने लायक होने से जुड़ी छूट नहीं दी गई.
मीडिया मैचिंग सर्विस (MMS) बैंक द्वारा काबरेरा बेरिंतोस की हत्या के उल्लंघन करने वाले फ़ुटेज के तौर पर पहचाने गए सभी अन्य कंटेंट को Meta के प्लेटफ़ॉर्म से अपने आप हटा दिया गया था. Meta ने MMS बैंक को इस तरह कॉन्फ़िगर किया है कि वह स्ट्राइक लगाए बिना कंटेंट को हटा दे ताकि “इस बात की संभावना को देखते हुए आनुपातिक एन्फ़ोर्समेंट सुनिश्चित हो सके कि यूज़र्स ने संभावित रूप से फ़ुटेज को हमले के बारे में जागरूकता फैलाने या उसकी निंदा करने के लिए शेयर किया हो सकता है.”
इसलिए तीसरी और चौथी पोस्ट को MMS बैंक द्वारा यूज़र्स के अकाउंट पर स्ट्राइक लगाए बिना हटा दिया गया था. जब बोर्ड द्वारा Meta का ध्यान इन दो पोस्ट की तरफ़ दिलाया गया, तो कंपनी ने कन्फ़र्म किया कि उन्हें खबरों में रहने लायक होने की छूट का फ़ायदा नहीं दिया गया. तीसरी और चौथी पोस्ट को “जाने-माने न्यूज़ आउटलेट द्वारा शेयर नहीं किया गया था और न ही उनमें वीडियो का संदर्भ पहले और दूसरे केस की पोस्ट की तरह दिया गया था. Meta ने इस तथ्य को नोट किया कि तीसरी पोस्ट में यूज़र्स को Telegram पर “सेंसर न की गई फ़ोटो” देखने के लिए कहा गया था और यह कि चौथी पोस्ट में इस बात पर ज़ोर दिया गया था कि इमेजरी सोशल मीडिया पर वायरल हुई है. कंपनी ने इसे फ़ुटेज को सनसनीखेज़ बनाने वाला पाया.
Meta के अनुसार, तीसरी और चौथी पोस्ट को हटाने का कंपनी का फ़ैसला, वैधता, औचित्यपूर्णता और आनुपातिकता की शर्तों के अनुरूप था. सबसे पहले, Meta ने चिह्नित घटनाओं में हमले के पलों को दिखाने वाली इमेजरी को सामान्य तौर पर हटाने की ज़रूरत को यह कहते हुए दोहराया कि ऐसे कंटेंट से हमलों की नकल करने वाले व्यवहार को बढ़ावा मिल सकता है और अपराधियों के लक्ष्य अन्य लोगों तक पहुँच सकते हैं. कंटेंट को हटाना, लेकिन उन यूज़र्स पर स्ट्राइक न लगाना, नुकसान के जोखिम को सबसे कम बाधक तरीके से दूर करने का उपाय था.
बोर्ड ने इस बारे में सवाल पूछे कि कंपनी ने हत्या की इमेजरी के मामलों में कितनी बार खबरों में रहने लायक होने की छूट दी है, उन अकाउंट के स्टेटस क्या हैं और यूज़र्स को खबरों में रहने लायक होने की छूट मिलने का क्या रास्ता है, क्या Meta के पास ऐसी विशेषज्ञ टीमें हैं जो चुनावी चक्र के दौरान बढ़े हुए जोखिम से निपटे और इन टीमों को किस तरह तैयार किया गया था. Meta ने सभी सवालों के जवाब दिए.
4. पब्लिक कमेंट
ओवरसाइट बोर्ड को सबमिट करने की शर्तों को पूरा करने वाले 10 पब्लिक कमेंट मिले. सात कमेंट लैटिन अमेरिका और कैरेबियन से, दो अमेरिका और कनाडा से और एक कमेंट यूरोप से सबमिट किया गया था. प्रकाशन की सहमति के साथ सबमिट किए गए पब्लिक कमेंट पढ़ने के लिए यहाँ पर क्लिक करें.
सबमिशन में इन विषयों पर बात की गई थी: मैक्सिको के 2024 के आम चुनाव के दौरान चुनावी और राजनैतिक हिंसा; लोकतांत्रिक प्रक्रियाओं पर राजनैतिक हिंसा का असर; Meta को किस तरह कंटेंट को मॉडरेट करना चाहिए और उल्लंघन करने वाली हिंसक घटनाओं की थर्ड पार्टी द्वारा शेयर की गई इमेजरी से जुड़ी अपनी पॉलिसी को किस तरह एडजस्ट करना चाहिए; खबरों में रहने लायक होने से जुड़ी छूट की प्रभावशीलता; चुनावी प्रक्रियाओं के बारे में जानकारी देने में सोशल मीडिया की भूमिका; आपराधिक संगठनों द्वारा सोशल मीडिया का उपयोग; न्यूज़ रिपोर्टिंग में राजनैतिक हिंसा दिखाने के लिए मैक्सिको में स्टैंडर्ड से जुड़ी सामान्य जानकारी और मैक्सिको में चुनावों के संदर्भ में अभिव्यक्ति की आज़ादी का महत्व.
5. ओवरसाइट बोर्ड का विश्लेषण
बोर्ड ने यह समझने के लिए इन केसों का चयन किया कि Meta के प्लेटफ़ॉर्म पर राजनैतिक हिंसा को किस तरह दर्शाया जाता है और चुनावी प्रक्रियाओं पर संभावित रूप से इसका क्या असर होता है. ये मामले बोर्ड की चुनाव और नागरिक स्थान की स्ट्रेटेजिक प्राथमिकता के तहत आते हैं.
बोर्ड ने Meta की कंटेंट पॉलिसी, वैल्यू और मानवाधिकार से जुड़ी ज़िम्मेदारियाँ के संबंध में इन केस में दिए गए Meta के फ़ैसलों का विश्लेषण किया. बोर्ड ने यह भी आकलन किया कि कंटेंट गवर्नेंस को लेकर Meta के व्यापक दृष्टिकोण पर इन केसों का क्या असर पड़ेगा.
5.1 Meta की कंटेंट पॉलिसी का अनुपालन
I.कंटेंट नियम
सभी चार पोस्ट, “चिह्नित हमलों के पीड़ितों को दिखाने वाले पलों को दिखाने वाली थर्ड पार्टी इमेजरी” पर Meta के प्रतिबंध का उल्लंघन करती हैं. Meta ने 29 मई, 2024 को जोस अल्फ़्रेडो काबरेरा बारेंतोस की हत्या के तुरंत बाद इसे चिह्नित घटना घोषित किया. सभी चार पोस्ट में दिखाया गया था कि काबरेरा बारेंतोस भीड़ में आगे बढ़ रहे हैं. साथ ही उस पल को भी दिखाया गया जब उन पर बंदूक तानी गई थी और उसके तुरंत बाद गोलियों और लोगों के चीखने की आवाज़ें आती हैं. यह नियम, जो खतरनाक संगठनों और लोगों से जुड़े कम्युनिटी स्टैंडर्ड में दिया गया है और Meta की आंतरिक गाइडलाइन में उसे आगे समझाया गया है, ऐसे फ़ुटेज को प्रतिबंधित करता है, चाहे उसे शेयर करने का संदर्भ कुछ भी हो.
पहली दो पोस्ट को खबरों में रहने लायक होने की छूट देकर प्लेटफ़ॉर्म पर बनाए रखने, “परेशान करने वाला” चेतावनी स्क्रीन लगाने और खबरों में रहने लायक होने का लेबल लगाने के मामले में Meta सही था. इन पॉलिसीज़ के तहत, Meta को चौथी पोस्ट को उसकी जनहित वैल्यू को देखते हुए Instagram पर बने रहने की परमिशन देनी चाहिए थी. इन पोस्ट के बारे में अलग-अलग फ़ैसले लेने के पीछे कोई ठोस कारण नहीं था. बोर्ड द्वारा केस को चुने जाने के बाद, खबरों में रहने लायक होने की छूट देने का फ़ैसला करने के हकदार विषयवस्तु विशेषज्ञों द्वारा रिव्यू किए जाने (या सिर्फ़ एस्केलेशन के समय किए जाने वाले अन्य उपायों) के बावजूद, Meta इस अलग-अलग व्यवहार को ठीक करने में विफल रहा. यह यूज़र्स से निष्पक्ष व्यवहार करने के सिद्धांत का उल्लंघन है.
इन तीन पोस्ट के कंटेंट में एक चुनावी चक्र के कैंपेन ईवेंट में गोलीबारी की घटना दिखाई गई है जिसमें राजनैतिक हिंसा एक मुख्य मुद्दा है. पहली, दूसरी और चौथी पोस्ट में गोलीबारी की जानकारी दी गई है, जिसमें हताहतों की संख्या और जवाब में गर्वनर द्वारा जारी किए गए बयान शामिल हैं. बोर्ड इस बात पर Meta से असहमत है कि चौथी पोस्ट में यूज़र्स को यह बताकर सनसनी फैलाई गई है कि वह सोशल मीडिया पर वायरल हुआ है. सनसनी फैलाने के बजाय, इससे लोगों में पोस्ट की सार्थकता हाइलाइट होती है. वह जानकारी हताहतों की संख्या की अन्य प्रासंगिक जानकारी के साथ दी गई थी, इस जानकारी सहित कि घटना में हमलावर भी मारा गया था, और साथ में गुरेरो के गवर्नर द्वारा जारी बयान की जानकारी भी दी गई थी.
जब पत्रकार मुख्य घटनाओं का अपना कवरेज सीमित कर देते हैं, तब महत्वपूर्ण जानकारी तक लोगों की ऐक्सेस सीमित हो जाती है. मैक्सिको में न्यूज़ आउटलेट और पत्रकार जिस तरह के गंभीर जोखिमों का सामना कर रहे हैं, उसे देखते हुए ऑनलाइन प्लेटफ़ॉर्म पर इस तरह के समाचारों की एक्सेसिबिलिटी महत्वपूर्ण है, खास तौर पर चुनावों के समय में. परिणामस्वरूप, पत्रकारों को दी जा रही धमकियों और उसके कारण हो रही सेल्फ़-सेंसरशिप को बोर्ड अपने खबरों में रहने लायक होने के विश्लेषण के लिए प्रासंगिक संदर्भ मानता है.
इसके अलावा, भले ही फ़ुटेज में पीड़ित पूरी तरह दिखाई दे रहे हैं और उन्हें पहचाना जा सकता है, उनके सार्वजनिक हस्ती होने से इस केस में प्राइवेसी से जुड़ी चिंताएँ कम हो जाती हैं. वे चुनाव के दौरान सार्वजनिक रैली में भाग ले रहे थे और उन्हें अपमानजनक या अमानवीय रूप से नहीं दिखाया गया है. इन तीन पोस्ट के लिए, नुकसान के जोखिमों के बजाय जनहित वैल्यू का महत्व ज़्यादा है.
तीसरी पोस्ट के लिए, बोर्ड के बहुसंख्य सदस्य Meta की इस बात से सहमत हैं कि कंटेंट से जोखिमों को बढ़ावा मिलता है और उन्होंने पाया कि खबरों में रहने लायक होने की छूट न देने का Meta का फ़ैसला उचित था. कंटेंट में हत्या के वीडियो ऐसी बिना किसी अतिरिक्त जानकारी या कैप्शन के दिया गया था जिससे यह पता चले कि यूज़र का इरादा हमले की रिपोर्ट करना, उसके बारे में जागरूकता फैलाना या उसकी निंदा करना था.
इसके विपरीत, वीडियो पर लगाए गए मैसेज, जिसे कैप्शन में दोहराया गया था, में व्यूअर्स को यह सूचना दी गई थी कि वीडियो का “सेंसर न किया गया” वर्जन Telegram पर उपलब्ध है और इस प्लेटफ़ॉर्म का लिंक भी दिया गया था. बोर्ड के बहुसंख्य सदस्यों ने पाया कि पोस्ट का लक्ष्य, यूज़र्स को किसी बाहरी प्लेटफ़ॉर्म पर मौजूद उल्लंघन करने वाले कंटेंट पर भेजकर, स्पष्ट रूप से पीड़ितों को दिखाने वाली थर्ड पार्टी की हमलों की इमेजरी पर प्रतिबंध का उल्लंघन करना था. इन कारणों से, बहुसंख्य सदस्य इस बात से सहमत हैं कि इस केस में खबरों में रहने लायक होने की छूट न देकर Meta ने सही किया था. इसके अलावा, अपनी रिसर्च में बोर्ड ने यह भी वेरिफ़ाई किया कि लिंक किए गए Telegram चैनल पर अत्यंत हिंसक फ़ुटेज हाइलाइट किया गया था, जिसमें सिर कलम किए जाने की इमेजरी शामिल थी और इस केस के संबंध में उम्मीदवार की हत्या की आपत्तिजनक इमेजरी शामिल थी.
बोर्ड के अल्पसंख्य सदस्यों के अनुसार, अन्य पोस्ट की तरह तीसरी पोस्ट को भी खबरों में रहने लायक होने की छूट दी जानी चाहिए थी. जहाँ तक बहुसंख्य सदस्यों का फ़ैसला इस तथ्य पर आधारित होने का सवाल है कि इस पोस्ट में किसी अन्य प्लेटफ़ॉर्म का हाइपरलिंक शामिल था, अल्पसंख्य सदस्य मानते हैं कि खुद हाइपरलिंक को उस कंटेंट का “प्रकाशन” नहीं माना जाना चाहिए जिसे वह रेफ़र करता है.
जब Meta ने पहली दो पोस्ट को खबरों में रहने लायक होनी की छूट दी, तब कंपनी ने यूज़र्स को यह सूचित करने के लिए खबरों में रहने लायक होने का लेबल जोड़ा कि पोस्ट को लोगों की जागरूकता के लिए परमिशन दी गई है. बोर्ड ने पहले यह सुझाव दिया था कि जब कंटेंट को खबरों में रहने लायक होने की छूट देते हुए प्लेटफ़ॉर्म पर बनाए रखा जाए, तब Meta द्वारा यूज़र्स को इसकी सूचना दी जाए (कोलंबिया का विरोध प्रदर्शन फ़ैसला, सझाव सं. 4, और सूडान का आपत्तिजनक वीडियो फ़ैसला, सुझाव सं. 4 देखें). बोर्ड ने इस व्यवहार का स्वागत किया क्योंकि इससे लोगों को इस बारे में महत्वपूर्ण संदर्भ मिलता है कि पॉलिसी का उल्लंघन करने वाले कंटेंट को प्लेटफ़ॉर्म पर बने रहने की परमिशन क्यों दी गई है.
5.2 Meta की मानवाधिकारों से जुड़ी ज़िम्मेदारियों का अनुपालन
बोर्ड ने पाया कि पहली दो पोस्ट को चेतावनी स्क्रीन और खबरों में रहने लायक होने के लेबल के साथ प्लेटफ़ॉर्म पर बनाए रखना और तीसरी पोस्ट को हटाना, Meta की मानवाधिकार से जुड़ी ज़िम्मेदारियों के अनुरूप था. हालाँकि, बोर्ड ने पाया कि चौथी पोस्ट को हटाना, Meta की मानवाधिकार से जुड़ी ज़िम्मेदारियों से अनुरूप नहीं था.
अभिव्यक्ति की आज़ादी (आर्टिकल 19 ICCPR)
Meta के कंटेंट मॉडरेशन संबंधी आचरणों के अभिव्यक्ति की आज़ादी के अधिकार पर प्रतिकूल प्रभाव पड़ सकते हैं. दीवानी और राजनैतिक अधिकारों पर अंतरराष्ट्रीय प्रतिज्ञापत्र (ICCPR) के अनुच्छेद 19 में राजनैतिक बातचीत में इसके महत्व को देखते हुए इस अधिकार को व्यापक सुरक्षा प्रदान की गई है और मानवाधिकार कमिटी ने यह नोट किया है कि यह उस अभिव्यक्ति की भी सुरक्षा करता है जो गहन आपत्तिजनक मानी जा सकती है ( सामान्य कमेंट सं. 34, पैरा. 11, 13 और 38). अनुच्छेद 19 की सुरक्षा, “लोकतांत्रिक समाज में सार्वजनिक और राजनैतिक क्षेत्र के लोगों से संबंधित सार्वजनिक चर्चा" के लिए "विशेष रूप से अधिक" होती है ( सामान्य कमेंट सं. 34, पैरा. 34).
जहाँ राज्य, अभिव्यक्ति पर प्रतिबंध लगाता है, वहाँ प्रतिबंधों को वैधानिकता, वैधानिक लक्ष्य और आवश्यकता तथा आनुपातिकता की शर्तों को पूरा करना चाहिए (अनुच्छेद 19, पैरा. 3, ICCPR). इन आवश्यकताओं को अक्सर “तीन भागों वाला परीक्षण” कहा जाता है. Meta की स्वैच्छिक मानवाधिकार प्रतिबद्धताओं को समझने के लिए बोर्ड इस फ़्रेमवर्क का उपयोग करता है - रिव्यू किए जा रहे कंटेंट से जुड़े व्यक्तिगत फ़ैसलों और कंटेंट संबंधी नियमों के मामले में Meta के व्यापक नज़रिए, दोनों के लिए. जैसा कि राय और अभिव्यक्ति की आज़ादी के बारे में संयुक्त राष्ट्र के खास रैपर्टर में कहा गया है कि भले ही “कंपनियों का सरकारों के प्रति दायित्व नहीं है, लेकिन उनका प्रभाव इस तरह का है जो उनके लिए अपने यूज़र की सुरक्षा के बारे में इस तरह के सवालों का मूल्यांकन करना ज़रूरी बनाता है” (A/74/486, पैरा. 41).
I. वैधानिकता (नियमों की स्पष्टता और सुलभता)
वैधानिकता के सिद्धांत के लिए यह ज़रूरी है कि अभिव्यक्ति को सीमित करने वाले नियमों को एक्सेस किया जा सकता हो और वे स्पष्ट हों. उन्हें पर्याप्त सटीकता के साथ बनाया गया हो ताकि लोग अपने व्यवहार को उसके अनुसार बदल सकें (सामान्य कमेंट सं. 34, पैरा. 25). इसके अलावा, ये नियम “उन लोगों को अभिव्यक्ति की आज़ादी पर प्रतिबंध लगाने के निरंकुश अधिकार नहीं दे सकते, जिनके पास इन नियमों को लागू करने की ज़िम्मेदारी है” और नियमों में “उन लोगों के लिए पर्याप्त मार्गदर्शन भी होना ज़रूरी है जिन पर इन्हें लागू करने की ज़िम्मेदारी है ताकि वे यह पता लगा सकें कि किस तरह की अभिव्यक्ति को उचित रूप से प्रतिबंधित किया गया है और किसे नहीं,” (सामान्य कमेंट सं. 34, पैरा. 25). अभिव्यक्ति की आज़ादी पर संयुक्त राष्ट्र संघ के विशेष रैपर्टर ने कहा है कि ऑनलाइन अभिव्यक्ति की निगरानी करने के मामले में निजी संस्थानों पर लागू होने वाले नियम स्पष्ट और विशिष्ट होने चाहिए (A/HRC/38/35, पैरा. 46). Meta के प्लेटफ़ॉर्म का उपयोग करने वाले लोगों के लिए ये नियम एक्सेस करने और समझने लायक होने चाहिए और उनके एन्फ़ोर्समेंट के संबंध में कंटेंट रिव्यूअर्स को स्पष्ट मार्गदर्शन दिया जाना चाहिए.
बोर्ड ने पहले अपने मॉस्को में आतंकवादी हमले का फ़ुटेज फ़ैसले में इस बात की चर्चा की थी और यह सुझाव दिया था कि चिह्नित घटनाओं के संबंध में Meta अपने नियम किस तरह बेहतर बना सकता है. यहाँ, बोर्ड ने दोहराया था कि Meta को इस पॉलिसी को बेहतर तो बनाना ही चाहिए, लेकिन चिह्नित घटनाओं की पीड़ितों को दिखाने वाले थर्ड पार्टी फ़ुटेज को प्रतिबंधित करने से जुड़ा उसका नियम, यूज़र्स के यह समझने के लिए पर्याप्त रूप से स्पष्ट है कि इस तरह का कंटेंट प्रतिबंधित है. इन पोस्ट में शेयर किया गया फ़ुटेज, एक उम्मीदवार को निशाना बनाकर की गई गोलीबारी दिखाता है जिसमें कई लोग शिकार हुए. पॉलिसी में यूज़र्स को इस बात का स्पष्ट नोटिस दिया गया है कि इस तरह के फ़ुटेज को चिह्नित किया जा सकता है.
II. वैधानिक लक्ष्य
खतरनाक संगठनों और लोगों से जुड़ी पॉलिसी का लक्ष्य “असली दुनिया को होने वाले नुकसानों को रोकना और उनमें रुकावट डालना है.” कई फ़ैसलों में, बोर्ड ने पाया है कि यह पॉलिसी, अन्य लोगों के अधिकारों की सुरक्षा करने के विधिसम्मत लक्ष्य को पूरा करती है, जैसे जीवन का अधिकार (ICCPR, अनुच्छेद 6) और खुद से भेदभाव न होने देने और समानता का अधिकार (ICCPR, अनुच्छेद 2 और 26), क्योंकि इसमें ऐसे संगठनों को कवर किया गया है जो नफ़रत, हिंसा और भेदभाव को बढ़ावा देते हैं और साथ ही नफ़रत से उकसाई गई हिंसक घटनाओं को भी चिह्नित किया गया है. चिह्नित खतरनाक लोगों को “शहीद” कहना, सूडान की रैपिड सपोर्ट फ़ोर्स का बंधक वाला वीडियो,इज़राइल से बंधकों का अपहरण और ग्रीस में 2023 का चुनावी कैंपेन फ़ैसले देखें. Meta की पॉलिसीज़ को पहचाने जा सकने वाले पीड़ितों और उनके परिवारों की प्राइवेसी के अधिकार की रक्षा करने (ICCPR, अनुच्छेद 17) के विधिसम्मत लक्ष्य की भी पूर्ति करती हैं (नाइजीरिया के चर्च पर हुए हमले के बाद का वीडियो फ़ैसला देखें).
III. आवश्यकता और आनुपातिकता
ICCPR के आर्टिकल 19(3) के तहत, आवश्यकता और आनुपातिकता के सिद्धांत के अनुसार यह ज़रूरी है कि अभिव्यक्ति की स्वतंत्रता पर लगाए जाने वाले प्रतिबंध “उनके सुरक्षात्मक कार्य को सही तरीके से पूरा करने वाले होने चाहिए; उनसे उन लोगों के अधिकारों के साथ कम से कम हस्तक्षेप होना चाहिए, जिन अधिकारों से उन्हें सुरक्षात्मक कार्यों का लाभ मिल सकता है; उन हितों के अनुसार सही अनुपात में होने चाहिए, जिनकी सुरक्षा की जानी है” (सामान्य कमेंट सं. 34, पैरा. 34).
बोर्ड इस बात को समझता है कि चिह्नित करने से जुड़ी पॉलिसी बनाते समय, Meta ने सुरक्षा और प्राइवेसी को ज़्यादा महत्व दिया है. Meta ने बताया कि उसकी मौजूदा पॉलिसी से जुड़ा दृष्टिकोण, कंपनी को MMS बैंक के ज़रिए तुरंत इस कंटेंट को हटाने की सुविधा देता है, जो अपराधियों के षड्यंत्र को फैलने से रोकने में मदद करता है और नकल करने के व्यवहार को सीमित कर सकता है. पीड़ितों के दिखाई देने पर, इस कंटेंट को हटाने से पीड़ितों और उनके परिवारों की प्राइवेसी और गरिमा की रक्षा करने में भी मदद मिलती है. जैसा कि बोर्ड ने हाल ही में ‘मॉस्को में आतंकवादी हमले का फ़ुटेज’ फ़ैसले में नोट किया था, अगर नियम का दायरा सीमित होगा, तो हिंसक घटनाओं को दिखाने वाले कंटेंट पर ज़रूरत से कम एन्फ़ोर्समेंट का जोखिम होगा. इसके कारण ऐसे फ़ुटेज को भी परमिशन मिल सकती है जिसे नुकसानदेह कामों में फिर से उपयोग किया गया हो क्योंकि Meta के लिए उसे पहचानना और हटाना मुश्किल हो सकता है. कुछ संदर्भों में, उकसावे के जोखिम या ऐसी इमेजरी के फिर से उपयोग को देखते हुए सुरक्षा की ओर झुकाव रखना सही है.
हालाँकि, बोर्ड ने हाल ही में ‘मॉस्को में आतंकवादी हमले का फ़ुटेज’ फ़ैसले में इस बात पर भी ज़ोर दिया था कि चिह्नित हमलों की इमेजरी से कई कारण जुड़े हो सकते हैं. जैसा कि इन तीन केसों में हुआ, चिह्नित हमले को दिखाने वाली सभी कंटेंट आपराधिक समूहों की गतिविधियों का महिमामंडन, समर्थन या प्रतिनिधित्व नहीं करता. ऐसे कंटेंट के हमेशा ऐसे परिणाम नहीं होते जिन्हें रोकना Meta का लक्ष्य होता है. ऐसी पॉलिसीज़ जो संदर्भ की परवाह किए बगैर ज़रूरत से ज़्यादा एन्फ़ोर्समेंट को प्राथमिकता देती हैं, अभिव्यक्ति की आज़ादी, जानकारी की ऐक्सेस और लोगों की भागीदारी को जोखिम में डालती हैं. इस नियम के कारण ऐसा कंटेंट भी हटा दिया जाता है जिससे नुकसान का जोखिम बहुत कम होता है या बिल्कुल नहीं होता.
संभावित रूप से ज़रूरत से ज़्यादा एन्फ़ोर्समेंट का समाधान करने के लिए, Meta ने कई पॉलिसी टूल बनाए हैं. इनमें से तीन टूल यहाँ प्रासंगिक हैं जबकि अन्य टूल भी मौजूद हैं. पहला, यह ऐसी स्ट्राइक या अन्य पेनल्टी लागू किए बिना कंटेंट को हटा सकता है जो यूज़र को प्रतिबंधित कर सकती हैं. MMS बैंक द्वारा एन्फ़ोर्स किए गए कंटेंट पर स्ट्राइक को रोकना, यूज़र्स को फ़ीचर लिमिट या अकाउंट सस्पेंशन के ज़रिए ऐक्सेस प्रतिबंधित होने से बचाता है और आनुपातिकता सुनिश्चित करने के महत्वपूर्ण टूल के रूप में काम करता है.
दूसरा, Meta ऐसे चिह्नित कंटेंट को परमिशन देने के लिए खबरों में रहने लायक होने की छूट भी लागू कर सकता है, जिससे लोगों की सुरक्षा और दिखाए गए लोगों की गरिमा को जोखिम की संभावना कम होती है. हालाँकि, ज़रूरत से ज़्यादा एन्फ़ोर्समेंट के मामले में खबरों में रहने लायक होने की छूट एक प्रभावी समाधान बने, इसके लिए इसे प्रासंगिक कंटेंट पर प्रभावी रूप से लागू करना ज़रूरी है. पुराने केसों में और क्रॉस-चेक पर पॉलिसी एडवाइज़री टीम की राय में, बोर्ड ने इस छूट की प्रभावशीलता में कई रुकावटों की पहचान की (Meta का क्रॉस-चेक प्रोग्राम पॉलिसी एडवाइज़री टीम की राय, सूडान की रैपिड सपोर्ट फ़ोर्स का बंधक वाला वीडियो, आर्मेनिया के युद्धबंदियों का वीडियो देखें). खबरों में रहने लायक होने की छूट सिर्फ़ एस्केलेशन के समय दी जा सकती है और शुरुआती मॉडरेटर्स उसका उपयोग नहीं कर सकते. चूँकि Meta के शुरुआती मॉडरेटर्स को ऐसे कंटेंट को पहचानने और एस्केलेट करने के निर्देश या साधन नहीं दिए गए हैं जिसे खबरों में रहने लायक होने की छूट का फ़ायदा मिल सकता है, इसलिए Meta के लिए उस कंटेंट को पहचानने के बहुत कम रास्ते उपलब्ध हैं जिस पर खबरों में रहने लायक होने की छूट देने के लिए विचार किया जा सकता है. जनहित के मामलों की रिपोर्टिंग करने वाले ऐसे न्यूज़ आउटलेट, पत्रकार और अन्य लोगों के लिए, जो Meta के क्रॉस-चेक प्रोग्राम में एनरोल नहीं हैं या जिनके पास Meta की आंतरिक टीमों की ऐक्सेस नहीं है, कंपनी के उन लोगों तक पहुँचना मुश्किल होगा जो खबरों में रहने लायक होने की छूट देने के लिए कंटेंट पर विचार करने और छूट देने में सक्षम हैं. इसके अलावा, छूट देने का फ़ैसले लेने के लिए जनहित और संभावित नुकसान को संतुलित करने वाले कई कारकों पर विचार करना ज़रूरी होता है जो नतीजे का अनुमान लगाना मुश्किल बनाता है और छूट के उपयोग में स्वेच्छा के उपयोग के जोखिम को बढ़ाता है जो यूज़र के लिए नुकसानदेह है.
इसका असर यह होता है कि इस छूट का बहुत कम उपयोग किया जाता है ( सूडान का आपत्तिजनक वीडियो फ़ैसला देखें). 1 जून, 2023 से 1 जून, 2024 तक, Meta ने छूट के 32 मामले रिपोर्ट किए. इन केसों में, उदाहरण के लिए, दो पोस्ट को पहचाना और एस्केलेट किया गया, लेकिन एक के साथ ऐसा नहीं किया गया, जबकि उसका कंटेंट और संदर्भ एक जैसा था. इससे यूज़र्स को निष्पक्ष व्यवहार नहीं मिलता.
बोर्ड ने पाया कि इन खास केसों में, मैक्सिको के संदर्भ को देखते हुए, पहली, दूसरी और चौथी पोस्ट को हटाना न तो आवश्यक था और न आनुपातिक.
पहली, दूसरी और चौथी पोस्ट में ऐसे एलिमेंट नहीं हैं जो लोगों को भर्ती करने या नकल करने वाले व्यवहार को उकसावे के जोखिम दर्शाते हों. बोर्ड द्वारा परामर्श किए गए विशेषज्ञों ने कहा कि मैक्सिको में आपराधिक समूह, लोगों को भर्ती करने के उद्देश्य से राजनैतिक हत्याओं के वीडियो का उपयोग आम तौर पर नहीं करते हैं, लेकिन वे डराने के लिए ऐसा कंटेंट शेयर कर सकते हैं. बोर्ड को ऐसा कोई साक्ष्य नहीं मिला कि इन केसों में शामिल फ़ुटेज को किसी अपराधी द्वारा रिकॉर्ड किया गया था या यह कि आपराधिक समूहों या शूटर ने नकल करने वाले व्यवहार को बढ़ावा देने, अपराधी के षड्यंत्र को फैलाने या उनके हिंसक कामों का महिमामंडन करने के लिए इन खास पोस्ट को शेयर किया था.
इसके विपरीत, इन तीनों पोस्ट को न्यूज़ आउटलेट द्वारा शेयर किया गया था जो आगामी चुनाव के कुछ दिन पहले एक चुनावी रैली में राजनैतिक हत्या की रिपोर्टिंग कर रहे थे. हिंसा और सरकार के जवाब जैसे उन मुद्दों की रिपोर्ट को हटाना, जिन पर लोग चर्चा कर रहे हैं और जिनकी छानबीन कर रहे हैं, महत्वपूर्ण जानकारी की ऐक्सेस को सीमित करेगा और मुक्त अभिव्यक्ति में रुकावट डालेगा, जबकि सुरक्षा में इससे मामूली सुधार ही होगा. ‘मॉस्को में आतंकवादी हमले का फ़ुटेज’ केस में अपने फ़ैसले में बोर्ड ने नोट किया था कि हमलों की फ़ोटो पर, सिर्फ़ संक्षिप्त जानकारी के मुकाबले, अक्सर लोगों की कठोर प्रतिक्रियाएँ आती हैं. फ़ोटो में लोगों को पीड़ितों के मानवीय चेहरे नज़र आते हैं और उनमें नैतिक गुस्से, सहानुभूति, हिंसा के बारे में जागरूकता और उत्तरदायित्व की भावना आती है. मैक्सिको में सरकार के भ्रष्टचार और संगठित अपराध की रिपोर्टिंग करते समय पत्रकारों और न्यूज़ आउटलेट को जितने गंभीर जोखिमों का सामना करना पड़ता है, उसे देखते हुए सोशल मीडिया तक उनकी ऐक्सेस सीमित करना खास तौर पर चिंताजनक है. इसके अलावा, चूँकि पीड़ित एक सार्वजनिक हस्ती था, सार्वजनिक कामों से जुड़ा हुआ था और उसे अपमानजनक या अमानवीय रूप से नहीं दिखाया गया था, इसलिए प्राइवेसी से जुड़ी चिंताएँ सीमित थीं.
इन तीन केसों में, Meta के हिंसक और आपत्तिजनक कंटेंट कम्युनिटी स्टैंडर्ड के तहत “परेशान करने वाला” चेतावनी स्क्रीन लगाना, सुरक्षा और प्राइवेसी की रक्षा करने का सबसे कम रुकावट डालने वाला उपाय है. जब Meta कोई चेतावनी स्क्रीन लगाता है, तो उसके कई परिणाम होते हैं. कंटेंट देखने के लिए सभी यूज़र्स को क्लिक करके आगे बढ़ना होता है और वह 18 वर्ष से कम उम्र के यूज़र्स के लिए उपलब्ध नहीं होता. इसके अलावा, कंटेंट को फिर उन यूज़र्स के सुझावों से हटा दिया जाता है जो अकाउंट को फ़ॉलो नहीं करते (अल-शिफा अस्पताल और इज़राइल से बंधकों का अपहरण फ़ैसले देखें). ये उपाय सुनिश्चित करते हैं कि वह कंटेंट, बाल यूज़र्स को दिखाई न दे और उन लोगों के लिए इस कंटेंट तक पहुँच सीमित हो जिन्होंने इसे बाहर रखना चुना है.
तीसरी पोस्ट के लिए, बोर्ड के बहुसंख्य सदस्यों का मानना है कि कंटेंट से सुरक्षा और प्राइवेसी को ज़्यादा जोखिम है. उस पोस्ट में, यूज़र ने एक मीडिया अकाउंट के कंटेंट को फिर से शेयर किया है जिसमें व्यूअर्स को Telegram पर एक “सेंसर न किया गया” वीडियो देखने के निर्देश देने वाला एक मैसेज है. बहुसंख्य सदस्य, Meta के इस फ़ैसले से सहमत हैं कि सुरक्षा के लिए उस पोस्ट को हटाना आवश्यक और आनुपातिक है. किसी अतिरिक्त कैप्शन या कमेंटरी के बिना किसी व्यक्ति की मृत्यु की आपत्तिजनक इमेजरी देखने के लिंक के साथ पोस्ट शेयर करके, यूज़र ने इस बात का कोई स्पष्ट संकेत नहीं दिया कि उनका उद्देश्य लोगों को सूचित करना या हिंसा की निंदा करना है. ऐसे संकेत न देकर और सेंसर न किए गए फ़ुटेज को लिंक करके, पोस्ट स्पष्ट रूप से यह दिखाती है कि यूज़र का उद्देश्य खतरनाक संगठनों और लोगों से जुड़े Meta के कम्युनिटी स्टैंडर्ड से बचना था. बोर्ड के अल्पसंख्य सदस्य इस बात से असहमत हैं और उनके अनुसार तीसरी पोस्ट को हटाना न तो आवश्यक था और न आनुपातिक.
Meta के जवाब की आनुपातिकता के संबंध में, बोर्ड ने इस तथ्य का स्वागत किया कि कंपनी ने उन यूज़र्स पर कोई स्ट्राइक नहीं लगाई जिन्होंने हटाए गए दो कंटेंट को पोस्ट किया था और यह तय किया कि कुछ परिस्थितियों में, स्ट्राइक के रूप में अतिरिक्त पेनल्टी लगाने की कोई ज़रूरत नहीं है. बोर्ड, कंटेंट पर Meta के एन्फ़ोर्समेंट एक्शन को यूज़र्स पर लगाए गए दंड से अलग रखने की वैल्यू पर ज़ोर देता है. उसने यह भी माना कि स्ट्राइक को रोकना, आनुपातिकता हासिल करने का एक महत्वपूर्ण टूल है (ईरान में एक बाल विवाह के लिए मेक-अप का वीडियो फ़ैसला देखें), जहाँ तक कि आनुपातिकता की ज़रूरत में श्रोताओं सहित अन्य लोगों के हितों, बल्कि स्पीकर के हितों को भी ध्यान में रखते हुए प्रतिबंध लगाने पर विचार किया जाता है (अभिव्यक्ति की आज़ादी पर संयुक्त राष्ट्र का विशेष रैपर्टर, विशेष रैपर्टर कम्युनिकेशन सं. USA 6/2017, पे. 3).
बोर्ड ने खबरों में रहने लायक होने की छूट के अनुसार इन केसों का विश्लेषण किया, क्योंकि वह इन पोस्ट के बारे में Meta का मौजूदा पॉलिसी दृष्टिकोण दर्शाती है. हालाँकि, जैसा कि पहले उल्लेख किया गया है, खबरों में रहने लायक छूट से एक्सेसिबिलिटी और पूर्वानुमान लगाने की योग्यता पर कई सीमाएँ लागू होती हैं. सार्वजनिक कमेंट में भी इसी तरह की चिंताएँ जाहिर की गई थीं, साथ ही यह डर भी जताया गया था कि अकाउंट लेवल की पेनल्टी से बचने के लिए यूज़र सेल्फ़-सेंसरशिप करने लगेंगे ( PC-30727 डिजिटल स्पीच लैब). इन कारणों से, बोर्ड ने इस बात पर विचार किया कि खबरों में रहने लायक होने की छूट देना, Meta के पास उपलब्ध सर्वाधिक प्रभावी या सबसे कम बाधक तरीका नहीं है.
बोर्ड ने हाल ही में ‘मॉस्को में आतंकवादी हमले का फ़ुटेज’ फ़ैसले में चिह्नित हमलों के पलों की पीड़ितों को दिखाने वाली थर्ड पार्टी इमेजरी पर प्रतिबंध पर यही चिंताएँ जाहिर की थीं. फ़ैसले में यह निष्कर्ष निकाला गया कि नुकसान और नकल करने वाले व्यवहार के जोखिम को कम से कम करते हुए अभिव्यक्ति की आज़ादी की रक्षा करने का सर्वाधिक प्रभावी तरीका, पॉलिसी में एक अपवाद शामिल करना है. यह अपवाद, किसी चिह्नित घटना में हमले के पलों की पीड़ितों को दिखाने वाली थर्ड पार्टी इमेजरी को उस स्थिति में परमिशन देगी जब उसे न्यूज़ रिपोर्टिंग करने, निंदा करने या जागरूकता फैलाने के संदर्भ में शेयर किया जाएगा. कंटेंट में “परेशान करने वाला” चेतावनी स्क्रीन होगी. Meta अभी इस सुझाव का आकलन कर रहा है.
बोर्ड ने इस बात को दोहराया कि उसके प्रस्तावित तरीके से अधिकार का बेहतर सम्मान होगा. Meta की सुरक्षा से जुड़ी चिंताओं के समाधान के लिए, कंपनी यह भी ज़रूरी बना सकती है कि न्यूज़ रिपोर्टिंग, निंदा या जागरूकता फैलाने के लिए पोस्ट करने वाले यूज़र्स अपना इरादा स्पष्ट रूप से बताएँ, जैसा कि वह खतरनाक संगठनों और लोगों से जुड़ी पॉलिसी में करता है. बोर्ड ने यह भी नोट किया कि अपने गाइडेंस में Meta ने जागरूकता फैलाने को इस रूप में परिभाषित किया है: “नई जानकारी को शेयर करना, उसकी चर्चा करना या उसकी रिपोर्ट करना ... जनहित वैल्यू के किसी मुद्दे की समझ या विषय की जानकारी बढ़ाने के लिए. जागरूकता फैलाने … का लक्ष्य हिंसा भड़काना या नफ़रत या गलत जानकारी फैलाना नहीं होना चाहिए,” (पाकिस्तानी संसद में दिए गए भाषण पर रिपोर्ट करना और भारत के ओडिशा राज्य में सांप्रदायिक दंगे फ़ैसले देखें). सुरक्षा संबंधी चिंताओं को देखते हुए कंपनी अस्पष्ट या संदिग्ध कंटेंट को हटाना जारी रख सकती है. अगर कंटेंट की पहचान के लिए स्पष्ट प्रोटोकॉल दिए जाते हैं, तो Meta सिर्फ़ एस्केलेशन के समय अपवाद लागू करना भी चुन सकता है. हालाँकि बोर्ड ने सिर्फ़ एस्केलेशन के समय लागू होने वाली पॉलिसीज़ पर लगातार अपनी चिंताएँ जताई हैं (सूडान की रैपिड सपोर्ट फ़ोर्स का बंधक वाला वीडियो और सूडान का आपत्तिजनक वीडियो फ़ैसले देखें), लेकिन वह मानता है कि खबरों में रहने लायक होने की छूट का उपयोग करने के लिए स्पष्ट रूप से तैयार और एस्केलेट होने पर एन्फ़ोर्स किया जाने वाला पॉलिसी विशिष्ट अपवाद बेहतर उपाय होगा (आर्मेनिया के युद्धबंदियों का वीडियो फ़ैसला देखें).
‘मॉस्को में आतंकवादी हमले का फ़ुटेज’ फ़ैसले में प्रस्तावित फ़्रेमवर्क के तहत, खबरों में रहने लायक होने की छूट देने की ज़रूरत के बगैर वही नतीजा यहाँ पाया जा सकेगा. पहली, दूसरी और चौथी पोस्ट, न्यूज़ रिपोर्टिंग के रूप में प्लेटफ़ॉर्म पर बनी रहेगी. यह देखते हुए कि तीसरी पोस्ट का इरादा रिपोर्टिंग करना, जागरूकता फैलाना या निंदा करना नहीं था, तीसरी पोस्ट को हटा दिया जाना चाहिए. हालाँकि ‘मॉस्को में आतंकवादी हमले का फ़ुटेज’ फ़ैसले में पीड़ितों को दिखाने वाले, लेकिन व्यक्तिगत रूप से न पहचाने जाने वाली पीड़ितों के थर्ड पार्टी फ़ुटेज का समाधान किया गया है, लेकिन इस केस में पीड़ितों को पहचाना जा सकता है. हालाँकि, यह देखते हुए कि वे एक सार्वजनिक आयोजन में मौजूद सार्वजनिक हस्ती हैं और उन्हें अपमानजनक या अमानवीय रूप से नहीं दिखाया गया है, इसलिए प्राइवेसी से जुड़ी चिंताएँ इसी तरह से कम हो जाती हैं और कंटेंट को सुझाए गए अपवाद का फ़ायदा दिया जाना चाहिए.
खबरों में रहने लायक होने की छूट, जिसका बहुत कम उपयोग किया जाता है और जिसका पूर्वानुमान नहीं लगाया जा सकता, पर निर्भरता कम करते हुए न्यूज़ रिपोर्टिंग, निंदा और जागरूकता फैलाने के बारे में एक स्पष्ट पॉलिसी अपवाद से Meta को यूज़र्स से निष्पक्ष व्यवहार करने में मदद मिलेगी.
6. ओवरसाइट बोर्ड का फ़ैसला
ओवरसाइट बोर्ड ने पहली और दूसरी पोस्ट को बनाए रखने और तीसरी पोस्ट को हटाने के Meta के फ़ैसले कायम रखे.
ओवरसाइट बोर्ड ने चौथी पोस्ट को हटाने का Meta का फ़ैसला पलट दिया और पोस्ट को “परेशान करने वाला” चेतावनी स्क्रीन के साथ रीस्टोर करने के लिए कहा.
7. सुझाव
कंटेंट पॉलिसी
ओवरसाइट बोर्ड ने ‘मॉस्को में आतंकवादी हमले का फ़ुटेज’ फ़ैसले के अपने पुराने सुझाव दोहराए:
Meta को “परेशान करने वाला” चेतावनी स्क्रीन के साथ किसी चिह्नित घटना में हमले के पलों की ऐसी थर्ड पार्टी इमेजरी को न्यूज़ रिपोर्टिंग, जागरूकता फैलाने या निंदा करने के संदर्भ में परमिशन देनी चाहिए जिसमें पीड़ित दिखाई दे रहे हों लेकिन उनकी पहचान न की जा सकती हो (मॉस्को में आतंकवादी हमले का फ़ुटेज, सुझाव सं. 1).
*प्रक्रिया संबंधी नोट:
- ओवरसाइट बोर्ड के फ़ैसले पाँच मेंबर्स के पैनल द्वारा लिए जाते हैं और उन पर बोर्ड के अधिकांश मेंबर्स की सहमति होती है. ज़रूरी नहीं है कि बोर्ड के फ़ैसले, सभी सदस्यों की राय दर्शाएँ.
- अपने चार्टर के तहत, ओवरसाइट बोर्ड उन यूज़र्स की अपील रिव्यू कर सकता है, जिनका कंटेंट Meta ने हटा दिया था और उन यूज़र्स की अपील जिन्होंने उस कंटेंट की रिपोर्ट की थी जिसे Meta ने बनाए रखा. साथ ही, बोर्ड Meta की ओर से रेफ़र किए गए फ़ैसलों का रिव्यू कर सकता है (चार्टर आर्टिकल 2, सेक्शन 1). बोर्ड के पास Meta के कंटेंट से जुड़े फ़ैसलों को कायम रखने या उन्हें बदलने का बाध्यकारी अधिकार है (चार्टर आर्टिकल 3, सेक्शन 5; चार्टर आर्टिकल 4). बोर्ड ऐसे गैर-बाध्यकारी सुझाव दे सकता है, जिनका जवाब देना Meta के लिए ज़रूरी है (चार्टर आर्टिकल 3, सेक्शन 4; अनुच्छेद 4). जहाँ Meta, सुझावों पर एक्शन लेने की प्रतिबद्धता व्यक्त करता है, वहाँ बोर्ड उनके क्रियान्वयन की निगरानी करता है.
- इस केस के फ़ैसले के लिए, बोर्ड की ओर से स्वतंत्र रिसर्च करवाई गई थी. बोर्ड को Duco Advisers की सहायता मिली, जो भौगोलिक-राजनैतिक, विश्वास और सुरक्षा तथा टेक्नोलॉजी के आपसी संबंध पर काम करने वाली एक एडवाइज़री फ़र्म है.