एकाधिक मामले का निर्णय

मॉस्को में आतंकवादी हमले का फ़ुटेज

बोर्ड ने Facebook से ऐसी तीन पोस्ट को हटाने के Meta के फ़ैसले को पलट दिया जिनमें मॉस्को में मार्च 2024 के आतंकवादी हमले का फ़ुटेज दिखाया गया था. बोर्ड ने “परेशान करने वाले के रूप में चिह्नित” चेतावनी स्क्रीन के साथ कंटेंट को रीस्टोर करने के लिए कहा.

3 इस बंडल में केस शामिल हैं

पलट जाना

FB-A7NY2F6F

Facebook पर हिंसक और आपत्तिजनक कंटेंट से जुड़ा केस

प्लैटफ़ॉर्म
Facebook
विषय
न्यूज़ ईवेंट,हिंसा
मानक
हिंसक और आपत्तिजनक कंटेंट
जगह
रूस
Date
पर प्रकाशित 19 नवंबर 2024
पलट जाना

FB-G6FYJPEO

Facebook पर हिंसक और आपत्तिजनक कंटेंट से जुड़ा केस

प्लैटफ़ॉर्म
Facebook
विषय
न्यूज़ ईवेंट,हिंसा
मानक
हिंसक और आपत्तिजनक कंटेंट
जगह
रूस
Date
पर प्रकाशित 19 नवंबर 2024
पलट जाना

FB-33HL31SZ

Facebook पर हिंसक और आपत्तिजनक कंटेंट से जुड़ा केस

प्लैटफ़ॉर्म
Facebook
विषय
न्यूज़ ईवेंट,हिंसा
मानक
हिंसक और आपत्तिजनक कंटेंट
जगह
रूस
Date
पर प्रकाशित 19 नवंबर 2024

पूरे फ़ैसले को रूसी भाषा में पढ़ने के लिए, यहाँ क्लिक करें.

Чтобы прочитать это решение на русском языке, нажмите здесь.

पूरे फ़ैसले की PDF डाउनलोड करने के लिए, यहाँ क्लिक करें.

सारांश

बोर्ड ने Facebook से ऐसी तीन पोस्ट को हटाने के Meta के फ़ैसले को पलट दिया जिनमें मॉस्को में मार्च 2024 के आतंकवादी हमले का फ़ुटेज दिखाया गया था. बोर्ड ने “परेशान करने वाले के रूप में चिह्नित” चेतावनी स्क्रीन के साथ कंटेंट को रीस्टोर करने के लिए कहा.

उन पोस्ट से पीड़ितों सहित चिह्नित हमले के पल को दिखाने के कारण Meta के नियमों का उल्लंघन तो हुआ, लेकिन उन्हें हटाना, कंपनी की मानवाधिकार से जुड़ी ज़िम्मेदारियों के अनुरूप नहीं था. उन पोस्ट, जिनमें दुनियाभर के अखबारों मे पहले पन्ने पर छपी घटना की चर्चा की गई थी, का अत्यधिक जनहित महत्व था और बोर्ड के बहुसंख्य सदस्यों के अनुसार खबरों में रहने से जुड़ी छूट के तहत उनकी रक्षा की जानी चाहिए. रूस जैसे मीडिया पर प्रतिबंध वाले देश में, सोशल मीडिया पर ऐसे कंटेंट को देखने की सुविधा और भी ज़्यादा महत्वपूर्ण है. हर पोस्ट में स्पष्ट भाषा में हमले की निंदा की गई है, पीड़ितों के साथ एकजुटता और उनके लिए चिंता दिखाई गई है और उनसे कट्टरता या उकसावे का कोई जोखिम नहीं है.

इस बात के निराधार डर से कि इससे कट्टरता को बढ़ावा मिल सकता है, सार्वजनिक चिंता के महत्वपूर्ण मामलों को दबाना, स्वतंत्र अभिव्यक्ति के प्रति Meta की ज़िम्मेदारियों के अनुरूप नहीं है. न्यूज़ रिपोर्टिंग करने, निंदा करने और जागरूकता फैलाने के लिए शेयर किए जाने पर Meta को हमलों के पलों को दिखाने वाली किसी चिह्नित घटना, जिसमें पीड़ित दिखाई दे रहे हों पर उन्हें पहचाना न जा सके, की थर्ड पार्टी इमेजरी को “परेशान करने वाले के रूप में चिह्नित” चेतावनी स्क्रीन के साथ परमिशन देनी चाहिए.

केस की जानकारी

बोर्ड ने उन तीन केसों का साथ में रिव्यू किया जिनमें मॉस्को में एक कंसर्ट स्थल और रिटेल कॉम्पलैक्स पर 22 मार्च, 2024 को हुए आतंकवादी हमले के तुरंत बाद अलग-अलग यूज़र्स द्वारा Facebook पर पोस्ट किए गए कंटेंट की चर्चा की गई थी.

पहले केस में रिटेल कॉम्पलैक्स के भीतर हुए हमले का एक हिस्सा दिखाया गया था. इसे वहाँ से गुज़र रहे किसी व्यक्ति द्वारा बनाया गया लगता है. उसमें हमलावर और लोग दिखाई दे रहे थे लेकिन उन्हें आसानी से पहचाना नहीं जा सकता था. बिल्डिंग से बाहर निकल रहे अन्य लोगों को पहचाना जा सकता था. कैप्शन में यह पूछा गया कि रूस में क्या हो रहा है और प्रभावित लोगों के लिए प्रार्थना की गई.

दूसरे केस में उसी फ़ुटेज की एक छोटी क्लिप दिखाई गई थी. साथ दिए गए कैप्शन में दर्शकों को कंटेंट के बारे में चेतावनी दी गई थी और कहा गया था कि दुनिया में आतंकवाद के लिए कोई जगह नहीं है.

तीसरे केस में एक Facebook ग्रुप पर एडमिनिस्ट्रेटर द्वारा शेयर की गई पोस्ट शामिल थी. ग्रुप के डिस्क्रिप्शन में फ़्रांस के राष्ट्रपति पद के उम्मीदवार एरिक ज़ेमोर के लिए समर्थन व्यक्त किया गया है. पोस्ट में हमले की स्टिल फ़ोटो थी जिसे शायद उसी वीडियो से लिया गया था. फ़ोटो में बंदूकधारी हमलावर और पीड़ित लोग दिखाई दे रहे थे. इसके अलावा, रिटेल कॉम्पलैक्स में लगी आग का एक शॉर्ट वीडियो था जिसे पास ही ड्राइव कर रहे किसी व्यक्ति द्वारा बनाया गया था. कैप्शन में कहा गया था कि यूक्रेन के अनुसार हमले में उसका कोई हाथ नहीं है, लेकिन इस बात की ओर इशारा भी किया कि किसी ने भी इसकी ज़िम्मेदारी नहीं ली है. कैप्शन में रूस के लोगों के लिए समर्थन का कथन भी शामिल था.

Meta ने अपनी खतरनाक संगठनों और लोगों से जुड़ी पॉलिसी के उल्लंघन के कारण तीनों पोस्ट को हटा दिया. यह पॉलिसी थर्ड पार्टी की ऐसी फ़ोटो या वीडियो को प्रतिबंधित करती है, जिसमें पीड़ित लोगों पर आतंकवादी हमला होते हुए दिखाया जाता है. मॉस्को में जिस दिन हमला हुआ था, उसी दिन से Meta ने इसे आतंकवादी हमले के रूप में चिह्नित किया है. Meta के अनुसार, पहले दो केसों में शेयर किए गए वीडियो को पहले ही एक अन्य यूज़र द्वारा पोस्ट किया जा चुका था और फिर उसी दिन पहले अतिरिक्त रिव्यू के लिए कंपनी की पॉलिसी या विषयवस्तु विशेषज्ञों को एस्केलेट किया गया था. उस रिव्यू के बाद, Meta ने वीडियो को हटाने का फ़ैसला किया और उसे मीडिया मैचिंग सर्विस (MMS) बैंक में जोड़ दिया. MMS बैंक ने बाद में पाया कि पहले दो केसों का कंटेंट, बैंक में मौजूद वीडियो से मैच हुआ. वीडियो को हटाने के लिए टैग करके उसे अपने आप हटा दिया गया. तीसरे केस मेंल ह्यूमन रिव्यू के बाद Meta ने कंटेंट को हटाया था.

हमला 22 मार्च, 2024 को मॉस्को के क्रोकस सिटी हॉल में हुआ था जिसे कम से कम 143 लोगों की जान चली गई. इस्लामिक स्टेट के एक सहयोगी ISIS-K ने हमले के ठीक बाद उसकी ज़िम्मेदारी ली. बोर्ड ने जिन विशेषज्ञों से परामर्श किया, उनके अनुसार, रूस के करोड़ों लोगों ने सरकारी मीडियो चैनलों और सोशल मीडिया प्लेटफ़ॉर्म पर हमला का वीडियो देखा. रूस के राष्ट्रपति व्लादिमीर पुतिन ने दावा किया कि हमले के तार यूक्रेन से जुड़े हैं और इसे पश्चिमी इंटेलिजेंस का सपोर्ट प्राप्त था, लेकिन यूक्रेन ने इसमें शामिल होने से इंकार कर दिया.

मुख्य निष्कर्ष

भले ही पोस्ट में हमलों की रिपोर्ट की गई थी, उनके बारे में जागरूकता फैलाई गई थी या उनकी निंदा की गई थी, खतरनाक संगठनों और लोगों से जुड़ी पॉलिसी के तहत Meta “थर्ड पार्टी की उन फ़ोटो और वीडियो पर ये छूट लागू नहीं करता जिनमें [चिह्नित] हमलों के पल और पीड़ित दिखाई दे रहे हों.” बोर्ड को यह स्पष्ट है कि तीनों वीडियो में Meta के नियमों का उल्लंघन होता है.

हालाँकि, बोर्ड के बहुसंख्य सदस्यों ने पाया कि इस कंटेंट को हटाना Meta की मानवाधिकारों से जुड़ी ज़िम्मेदारियों के अनुरूप नहीं था और कंटेंट को खबरों में रहने लायक होने की छूट देते हुए उसकी रक्षा की जानी चाहिए थी. तीनों पोस्ट में सार्वजनिक चर्चा की एक महत्वपूर्ण विषयवस्तु थी जो एक ऐसी घटना से संबंधित थी जिसने पूरी दुनिया में सुर्खियाँ बटोरी. पोस्ट से कट्टरता या उकसावे का कोई स्पष्ट जोखिम नहीं था. हर पोस्ट में हमले की स्पष्ट शब्दों में निंदा की गई थी, पीड़ितों से एकजुटता या उनके लिए चिंता दिखाई गई थी और लोगों को हमले के बारे में सूचित करना चाहा गया था. रूस में मीडिया की आज़ादी पर प्रतिबंध और पीड़ितों की स्पष्ट पहचान न होने के तथ्य को देखते हुए, इससे इस बात को बल मिलता है कि इन पोस्ट को सार्वजनिक चर्चा की दिशा में ले जाया जाना चाहिए.

इस बात के निराधार डर से कि इससे कट्टरता को बढ़ावा मिल सकता है, सार्वजनिक चिंता के महत्वपूर्ण मामलों से जुड़े कंटेंट को दबाना, स्वतंत्र अभिव्यक्ति के प्रति Meta की ज़िम्मेदारियों के अनुरूप नहीं है. यह बात इसलिए ज़्यादा महत्वपूर्ण थी क्योंकि वीडियो को लाखों लोगों द्वारा देखा गया था और ऐसे आरोप लगाए गए थे कि हमले में कुछ हद तक यूक्रेन का हाथ है. बोर्ड ने संकट के समय में जानकारी की ऐक्सेस बनाए रखने के महत्व को नोट किया, खास तौर पर रूस में जहाँ लोग जानकारी पाने और अंतरराष्ट्रीय ऑडियंस के बीच जागरूकता फैलाने के लिए सोशल मीडिया पर निर्भर हैं.

कुछ परिस्थितियों में पीड़ितों की पहचान उजागर करने वाले कंटेंट को हटाना आवश्यक और आनुपातिक होता है (जैसे सशस्त्र संघर्ष में जब पीड़ित युद्धबंदी होते हैं), लेकिन इन केसों में पीड़ितों को आसानी से पहचाना नहीं जा सकता, इसलिए उम्र संबंधी चेतावनी स्क्रीन लगाते हुए पोस्ट को रीस्टोर करना Meta की मानवाधिकार से जुड़ी ज़िम्मेदारियों का बेहतर पालन होगा. इसलिए Meta को अपनी पॉलिसी में बदलाव करके उसमें थर्ड पार्टी की ऐसी फ़ोटो और वीडियो को न्यूज़ रिपोर्टिंग करने, निंदा करने या जागरूकता फैलाने के संदर्भ में परमिशन देनी चाहिए जिनमें पीड़ितों को देखा तो जा सकता हो लेकिन उन्हें निजी रूप से पहचाना न जा सकता हो.

बोर्ड के कुछ सदस्य इस बात से सहमत नहीं हैं और वे कंटेंट को Facebook से हटाने के Meta के फ़ैसले को बनाए रखना चाहते हैं. बोर्ड के इन कुछ सदस्यों के अनुसार, फ़ुटेज की ग्राफ़िक प्रकृति, हमले के पलों और दिखाई दे रहे पीड़ितों की मृत्यु के दृश्यों के कारण पीड़ितों और उनके परिवारों की गरिमा के लिए उन्हें हटाना ज़रूरी है.

इसके अलावा, बोर्ड ने पाया कि खतरनाक संगठनों और लोगों से जुड़ी पॉलिसी के तहत उल्लंघन करने वाली हिंसक घटनाओं के फ़ुटेज से जुड़ा नियम, यूज़र्स के लिए भ्रम की स्थिति बनाता है. “हम इस कंटेंट को हटा देते हैं” सेक्शन बताता है कि निंदा करने और न्यूज़ रिपोर्टिंग करने वाले कंटेंट की परमिशन है, लेकिन अन्य सेक्शन में कहा गया है कि अपराधियों द्वारा ली गई फ़ोटो और वीडियो और हमले के समय पीड़ितों को दिखाने वाली थर्ड पार्टी फ़ोटो और वीडियो प्रतिबंधित हैं और उसमें यह स्पष्ट रूप से नहीं बताया गया है कि Meta ऐसे कंटेंट को तब भी हटा देगा जब उन्हें हमलों की निंदा करने या उनके बारे में जागरूकता फैलाने के लिए उपयोग किया गया हो.

ओवरसाइट बोर्ड का फ़ैसला

ओवरसाइट बोर्ड ने तीनों पोस्ट को हटाने के Meta के फ़ैसले को पलट दिया और कंटेंट को “परेशान करने वाला” की चेतावनी स्क्रीन के साथ रीस्टोर करने के लिए कहा.

बोर्ड ने Meta को सुझाव भी दिया कि वह:

  • न्यूज़ रिपोर्टिंग करने, निंदा करने और जागरूकता फैलाने के संदर्भ में शेयर किए जाने पर हमलों के पलों को दिखाने वाली किसी चिह्नित घटना, जिसमें पीड़ित दिखाई दे रहे हों पर उन्हें निजी रूप से पहचाना न जा सके, की थर्ड पार्टी इमेजरी को “परेशान करने वाले के रूप में चिह्नित” चेतावनी स्क्रीन के साथ परमिशन दे.
  • खतरनाक संगठनों और लोगों से जुड़े कम्युनिटी स्टैंडर्ड के “हम इस कंटेंट को हटा देते हैं” सेक्शन में चिह्नित हिंसक घटनाओं के बारे में एक नियम शामिल करे. चिह्नित घटनाओं को दिखाने वाले कंटेंट से Meta कैसे निपटता है, इसकी व्याख्या को पॉलिसी बनाने के कारण से निकालकर इस सेक्शन में शामिल करे.

* केस के सारांश से केस का ओवरव्यू मिलता है और आगे के किसी फ़ैसले के लिए इसको आधार नहीं बनाया जा सकता है.

केस का पूरा फ़ैसला

1. केस की जानकारी और बैकग्राउंड

ओवरसाइट बोर्ड ने उन तीन केसों का साथ में रिव्यू किया जिनमें मॉस्को में एक कंसर्ट स्थल और रिटेल कॉम्पलैक्स पर 22 मार्च, 2024 को हुए आतंकवादी हमले के तुरंत बाद अलग-अलग यूज़र्स द्वारा Facebook पर पोस्ट किए गए कंटेंट की चर्चा की गई थी. रूस में एक सरकारी मंत्रालय ने Meta कंपनी को “चरमपंथी संगठन” के रूप में लेबल किया है और मार्च 2022 से रूस में Meta के प्लेटफ़ॉर्म पर पाबंदी लगी हुई है. हालाँकि, वर्चुअल प्राइवेट नेटवर्क (VPN) के ज़रिए लोग अभी भी Meta के प्लेटफ़ॉर्म को ऐक्सेस कर सकते हैं.

पहले केस में, Facebook के एक यूज़र ने अपनी प्रोफ़ाइल पर एक शॉर्ट वीडियो क्लिप पोस्ट की जिसका कैप्शन अंग्रेज़ी भाषा में था. वीडियो में रिटेल कॉम्पलैक्स के भीतर हुए हमले का एक हिस्सा दिखाया गया था. ऐसा लगता है कि यह फ़ुटेज वहाँ खड़े किसी व्यक्ति ने बनाया है. हथियारबंद लोग निहत्थे लोगों को करीब से गोलियाँ मार रहे हैं. कुछ पीड़ित ज़मीन पर पड़े हैं जबकि कुछ लोग भाग रहे हैं. फ़ुटेज का रिज़ॉल्यूशन अच्छा नहीं था. उसमें हमलावर और लोग दिखाई दे रहे थे लेकिन उन्हें आसानी से पहचाना नहीं जा सकता था. बिल्डिंग से बाहर निकल रहे अन्य लोगों को पहचाना जा सकता था. ऑडियो में गोलियों की आवाज़ सुनी जा सकती है और लोग चिल्ला रहे हैं. कैप्शन में यह पूछा गया कि रूस में क्या हो रहा है और प्रभावित लोगों के लिए प्रार्थना की गई. जब Meta ने इसे पोस्ट किए जाने के कुछ ही मिनट बाद हटाया, तब तक इसे 50 से कम लोगों द्वारा देखा गया था.

दूसरे केस में, एक दूसरे Facebook यूज़र ने उसी फ़ुटेज की एक छोटी क्लिप पोस्ट की जिसका कैप्शन भी अंग्रेज़ी भाषा में था. इसमें दर्शकों को कंटेंट के बारे में चेतावनी दी गई थी और कहा गया था कि दुनिया में आतंकवाद के लिए कोई जगह नहीं है. जब Meta ने इसे पोस्ट किए जाने के कुछ ही मिनट बाद हटाया, तब तक इसे 50 से कम लोगों द्वारा देखा गया था.

तीसरे केस में एक ग्रुप पर एडमिनिस्ट्रेटर द्वारा शेयर की गई पोस्ट शामिल थी. ग्रुप के डिस्क्रिप्शन में फ़्रांस के राष्ट्रपति पद के उम्मीदवार एरिक ज़ेमोर के लिए समर्थन व्यक्त किया गया है. पोस्ट में हमले की स्टिल फ़ोटो थी जिसे शायद उसी वीडियो से लिया गया था. फ़ोटो में बंदूकधारी हमलावर और पीड़ित लोग दिखाई दे रहे थे. इसके अलावा, रिटेल कॉम्पलैक्स में लगी आग का एक शॉर्ट वीडियो था जिसे पास ही ड्राइव कर रहे किसी व्यक्ति द्वारा बनाया गया था. हमले की कमेंटरी, जैसे मृतकों की संख्या, के साथ फ़्रेंच भाषा में दिए कैप्शन में “अलर्ट” शब्द शामिल था. कैप्शन में यह भी कहा गया था कि यूक्रेन के अनुसार हमले में उसका कोई हाथ नहीं है, लेकिन इस बात की ओर इशारा भी किया कि किसी ने भी इसकी ज़िम्मेदारी नहीं ली है. कैप्शन की समाप्ति पर इस हमले की तुलना पेरिस के बाटाक्लान आतंकवादी हमले से की गई और रूसी लोगों के लिए समर्थन जताया गया. इसे पोस्ट करने के एक दिन बाद जब Meta ने इसे हटाया, तब तक इसे लगभग 6,000 बार देखा जा चुका था.

कंपनी ने अपने खतरनाक संगठनों और लोगों से जुड़े कम्युनिटी स्टैंडर्ड के तहत तीनों पोस्ट को हटा दिया. यह स्टैंडर्ड किसी चिह्नित हमले के संबंध में अपराधियों द्वारा बनाए गए सभी कंटेंट और थर्ड पार्टी द्वारा कैप्चर किए गए फ़ुटेज या फ़ोटो और वीडियो (जैसे वहाँ खड़े लोगों, पत्रकारों द्वारा) को शेयर करना प्रतिबंधित करता है जिनमें पीड़ितों को दिखाते हुए आतंकवादी हमले के पलों को दिखाया गया हो. मॉस्को में जिस दिन हमला हुआ था, उसी दिन से Meta ने इसे आतंकवादी हमले के रूप में चिह्नित किया है. Meta के अनुसार, पहले दो केसों में शेयर किए गए वीडियो को पहले ही एक अन्य यूज़र द्वारा पोस्ट किया जा चुका था और फिर उसी दिन पहले अतिरिक्त रिव्यू के लिए कंपनी की पॉलिसी या विषयवस्तु विशेषज्ञों को एस्केलेट किया गया था. उस रिव्यू के बाद, Meta ने वीडियो को हटाने का फ़ैसला किया और उसे मीडिया मैचिंग सर्विस (MMS) बैंक में जोड़ दिया. MMS बैंक ने बाद में पाया कि पहले दो केसों का कंटेंट, बैंक में मौजूद वीडियो से मैच हुआ. वीडियो को हटाने के लिए टैग करके उसे अपने आप हटा दिया गया. Meta ने यूज़र की प्रोफ़ाइल पर कोई स्ट्राइक या फ़ीचर लिमिट नहीं लगाई क्योंकि बैंक को कोई स्ट्राइक लगाए बिना कंटेंट को हटाने के लिए कॉन्फ़िगर किया गया था. तीसरे केस में, ह्यूमन रिव्यू के बाद Meta ने कंटेंट को हटाया और एक स्ट्राइक लगाई जिसके कारण 30 दिन की फ़ीचर लिमिट लगी. लगाई गई फ़ीचर लिमिट ने यूज़र को प्लेटफ़ॉर्म पर कंटेंट बनाने, Messenger रूम बनाने या उनसे जुड़ने और विज्ञापन देने या लाइव वीडियो बनाने से रोका. यह अस्पष्ट है कि MMS सिस्टम इस कंटेंट को पहचान क्यों नहीं पाया.

तीनों केसों में यूज़र्स ने Meta को अपील की. ह्यूमन रिव्यूअर्स ने सभी पोस्ट को उल्लंघन करने वाला पाया. बोर्ड द्वारा इन केसों को रिव्यू के लिए चुने जाने के बाद, Meta ने कन्फ़र्म किया कि तीनों पोस्ट को हटाने का उसका फ़ैसला सही था लेकिन उसने तीसरे केस में स्ट्राइक हटा दी.

बोर्ड ने अपना फ़ैसला करते समय नीचे दिए संदर्भ पर ध्यान दिया.

हमला 22 मार्च, 2024 को मॉस्को के क्रोकस सिटी हॉल में हुआ था जिसे कम से कम 143 लोगों की जान चली गई. इस्लामिक स्टेट के एक सहयोगी ISIS-K ने हमले के ठीक बाद उसकी ज़िम्मेदारी ली. रूसी जाँचकर्ताओं ने तुरंत चार लोगों की पहचान की. रूसी अधिकारियों ने कहा कि उन्होंने 11 लोगों को पकड़ा था जिनमें चार कथित बंदूकधारी थे और उन्होंने दावा किया कि उन्हें हमलावरों और यूक्रेन के बीच लिंक मिला है, जबकि यूक्रेन ने इसमें शामिल होने से इंकार किया.

ISIS-K को 2015 में पाकिस्तानी तालिबान के असंतुष्ट लड़ाकों ने बनाया था. यह ग्रुप अफ़गानिस्तान में तालिबान से लड़ रहा है. साथ ही वह ईरान, रूस और पाकिस्तान में टार्गेटेड हमले कर रहा है. रिपोर्ट्स के अनुसार, इस ग्रुप ने “सीरिया में हस्तक्षेप के लिए क्रेमलिन को गलत ठहराते हुए और सोवियत संघ द्वारा अफ़गानिस्तान में हमले के दशकों बाद तालिबान के रूसी प्राधिकारियों के साथ एंगेज होने की आलोचना करते हुए भारी मात्रा में रूस विरोधी प्रोपेगंडा जारी किया है.”

बोर्ड ने जिन विशेषज्ञों से परामर्श किया, उनके अनुसार, रूस के करोड़ों लोगों ने सरकारी मीडियो चैनलों और सोशल मीडिया प्लेटफ़ॉर्म पर हमला का वीडियो देखा. रूस के राष्ट्रपति व्लादिमीर पुतिन ने दावा किया कि हमले के तार यूक्रेन से जुड़े हैं और इसे पश्चिमी इंटेलिजेंस का सपोर्ट प्राप्त था. 18-24 अप्रैल के बीच रूस में Levada Center द्वारा करवाए गए एक आम राय सर्वे के अनुसार, जवाब देने वाले लगभग सभी लोगों ने कहा कि उन्हें हमले की जानकारी थी और वे इस समाचार पर बारीकी से नज़र बनाए हुए थे, जबकि आधे लोगों का मानना था कि इसमें यूक्रेन की इंटेलीजेंस सर्विस शामिल थी.

बोर्ड द्वारा करवाई गई रिसर्च के अनुसार, इन केसों में शेयर किया गया वीडियो, व्यापक रूप से ऑनलाइन प्रसारित किया गया था, जिसमें रूसी और अंतरराष्ट्रीय मीडिया अकाउंट द्वारा इसे फैलाना शामिल है. रिसर्चर्स ने पाया कि Facebook पर फ़ुटेज वाली कुछ पोस्ट ISIS द्वारा हमले पर खुशी जताने से जुड़ी थीं या उसका समर्थन करती थीं. रिसर्चर्स ने रिपोर्ट किया कि जिन सोशल मीडिया प्लेटफ़ॉर्म पर कठोरता से कंटेंट नहीं किया जाता, उन पर अपराधियों द्वारा जेनरेट किए गए कंटेंट की मात्रा ज़्यादा होती है.

2024 में VK, WhatsApp और Telegram रूस में सबसे ज़्यादा उपयोग किए गए प्लेटफ़ॉर्म थे. सरकार ने मीडिया पर कठोर नियंत्रण लगाए हैं और “सभी राष्ट्रीय टेलीविज़न नेटवर्क और अधिकांश रेडियो और प्रिंट आउटलेट” पर उसका प्रत्यक्ष या अप्रत्यक्ष अधिकार है. यूक्रेन पर हमले के बाद से “सरकार ने कई वेबसाइट की ऐक्सेस प्रतिबंधित करना भी शुरू कर दिया है, जिनमें घरेलू और विदेशी न्यूज़ आउटलेट की वेबसाइटें शामिल हैं. 300 से ज़्यादा मीडिया आउटलेट को जबरन अपनी एक्टिविटी बंद करने के लिए कहा गया.” सरकार ने विदेशी मीडिया आउटलेट के लिए रिपोर्टिंग की ऐक्सेस पर कठोर प्रतिबंध भी लगाए हैं और पत्रकारों पर झूठे आरोप लगाकर उन्हें गिरफ़्तार किया और जेल भेजा.

2. यूज़र सबमिशन

तीनों केसों में यूज़र्स ने बोर्ड को अपील की. अपने कथनों में, उन्होंने बताया कि उन्होंने रूस के लोगों को सुरक्षित रहने की चेतावनी देने के लिए वीडियो शेयर किया था. उन्होंने कहा कि वे आतंकवाद की निंदा करते हैं और यह कि Meta को उन्हें लोगों को वास्तविक घटनाओं की जानकारी देने से नहीं रोकना चाहिए.

3. Meta की कंटेंट पॉलिसी और सबमिशन

I. Meta की कंटेंट पॉलिसी

खतरनाक संगठन और लोगों से जुड़ा कम्युनिटी स्टैंडर्ड

खतरनाक संगठनों और लोगों से जुड़ी पॉलिसी बनाने के कारण के अनुसार वास्तव में होने वाले नुकसान को रोकने और नाकाम करने की कोशिश में Meta ऐसे किसी भी संगठन या व्यक्ति को अपने प्लेटफ़ॉर्म पर मौजूद रहने की परमिशन नहीं देता जो किसी हिंसक मिशन की घोषणा करता है या हिंसा में शामिल होता है. कम्युनिटी स्टैंडर्ड में “ऐसे कंटेंट को प्रतिबंधित किया गया है जो उन घटनाओं का महिमामंडन करता है, उन्हें सपोर्ट करता है या उनका प्रतिनिधित्व करता है, जिन्हें Meta ने उल्लंघन करने वाली हिंसक घटनाओं के रूप में चिह्नित किया है,” जिसमें आतंकवादी हमले शामिल हैं. न ही वह इनकी परमिशन देता है: (1) ऐसे हमलों के अपराधी (अपराधियों) का महिमामंडन, समर्थन या प्रतिनिधित्व करना, (2) ऐसे हमलों के बारे में अपराधियों द्वारा जेनरेट किया गया कंटेंट या (3) दिखाई देने वाले पीड़ितों पर ऐसे हमलों के पल को दिखाती थर्ड पार्टी की फ़ोटो और वीडियो,” (ज़ोर दिया गया). कम्युनिटी स्टैंडर्ड में उल्लंघन करने वाली हिंसक घटनाओं के ये उदाहरण दिए हैं: “आतंकवादी हमले, नफ़रत फैलाने वाली घटनाएँ, ऐसी हिंसा जिसमें एक से ज़्यादा लोग शिकार हुए हों या ऐसी हिंसा की कोशिश जिसमें एक से ज़्यादा लोग शिकार हो सकते हों, सीरियल मर्डर या नफ़रत फैलाने वाले अपराध.” हालाँकि, उसने चिह्नित करने की खास शर्तों या चिह्नित घटनाओं की लिस्ट के बारे में कुछ नहीं बताया.

रिव्यूअर्स के लिए आंतरिक गाइडलाइन के अनुसार, Meta ऐसी फ़ोटो और वीडियो को हटा देता है जिनमें हमले के पलों को दिखाया गया हो और उनमें पीड़ित भी दिखाई दे रहे हों, “चाहे उन्हें शेयर करने का संदर्भ कुछ भी हो.”

हिंसक और आपत्तिजनक कंटेंट से जुड़ा कम्युनिटी स्टैंडर्ड

हिंसक और आपत्तिजनक कंटेंट से जुड़ी पॉलिसी बनाने के कारण में कहा गया है कि कंपनी इस बात को समझती है कि “हिंसक और आपत्तिजनक फ़ोटो और वीडियो के संबंध में लोगों की संवेदनशीलता का लेवल अलग-अलग होता है” और यह कि Meta अधिकांश आपत्तिजनक कंटेंट को हटा देता है और अन्य आपत्तिजनक कंटेंट पर लोगों को सचेत करने के लिए चेतावनी लेबल लगाता है. यह पॉलिसी “परेशान करने वाले के रूप में चिह्नित किया गया” चेतावनी स्क्रीन के साथ “ऐसी फ़ोटो और वीडियो की परमिशन देती है जिनमें लोगों की हिंसक मृत्यु दिखाई गई हो (उनकी मृत्यु के पल या उसके बाद की घटनाओं सहित) या जब कोई व्यक्ति जानलेवा घटना का अनुभव कर रहा हो.” पॉलिसी ऐसी फ़ोटो और वीडियो को तब प्रतिबंधित करती है जब उनमें अंगों को अलग-अलग करना दिखाया गया हो, अंदर के अंग दिखाए गए हों, लोगों को जलाया जा रहा हो या उनका गला काटा जा रहा हो.

खबरों में रहने लायक होने की छूट

कुछ परिस्थितियों में कंपनी ऐसे कंटेंट को प्लेटफ़ॉर्म पर बने रहने की परमिशन देती है जिससे उसकी पॉलिसीज़ का उल्लंघन होता है, अगर वह “ खबरों में रहने लायक हो और जब उसे दिखाना जनहित में हो.” इसका निर्धारण करते समय, “[Meta] यह आकलन करेगा कि क्या कंटेंट से लोगों के स्वास्थ्य या सुरक्षा को तात्कालिक खतरा है या क्या उससे राजनीतिक प्रक्रिया के रूप में फ़िलहाल बहस का विषय बने हुए दृष्टिकोण ज़ाहिर किए जा सकते हैं.” विश्लेषण में देश की स्थानीय परिस्थितियों पर विचार किया जाता है, अभिव्यक्ति की प्रकृति और प्रभावित देश की राजनैतिक संरचना को समझा जाता है. “अगर हम किसी कंटेंट को परमिशन देते हैं और वह संवेदनशील या परेशान करने वाला है, तो हम चेतावनी स्क्रीन दिखाएँगे. इन केस में, हम यह प्रतिबंध भी लगा सकते हैं कि उस कंटेंट को 18 वर्ष या इससे अधिक उम्र के वयस्क ही देख पाएँ. ख़बरों में रहने लायक होने की छूट ‘सीमित’ हो सकती है, जिसमें छूट, किसी एक कंटेंट के लिए हो सकती है या “व्यापक” हो सकती है, जिसे किसी वाक्यांश जैसी किसी चीज़ पर व्यापक रूप से लागू किया जा सकता है.”

II. Meta के सबमिशन

Meta ने पाया कि तीनो पोस्ट उसकी खतरनाक संगठनों और लोगों से जुड़ी पॉलिसी का उल्लंघन करती हैं. यह पॉलिसी थर्ड पार्टी की ऐसी फ़ोटो या वीडियो को प्रतिबंधित करती है, जिसमें पीड़ित लोगों पर आतंकवादी हमला होते हुए दिखाया जाता है. Meta ने पाया कि “इस कंटेंट को हटाने से लोगों के नकल करने के व्यवहार पर लगाम लगेगी और ऐसे कंटेंट का फैलाव रुकेगा जो अपराधी को प्रसिद्ध करता है या जिसमें कोई प्रोपेगंडा हो सकता है.” इसके अलावा, कंपनी का लक्ष्य “ऐसे पीड़ितों की गरिमा की रक्षा करना है जिन्होंने लोगों की जिज्ञासा का विषय बनने और मीडिया का आकर्षण बनने की सहमति नहीं दी है.” Meta के अनुसार, जैसा कि सभी पॉलिसी फ़ोरम पर होता है, कंपनी अपनी फ़ैसला करते समय कई सोर्स पर विचार करेगी, जिनमें अकादमिक रिसर्च, बाहरी स्टेकहोल्डर का फ़ीडबैक और आंतरिक पॉलिसी और ऑपरेट करने से संबंधित टीमों के इनसाइट शामिल हैं.

Meta ने यह भी बताया कि वह सीमित मामलों में ऐसे उल्लंघन करने वाले कंटेंट को खबरों में रहने लायक होने की छूट दे सकता है. हालाँकि, इन तीन केसों में कंपनी ने यह छूट नहीं दी क्योंकि वह इस नतीजे पर पहुँची कि इस कंटेंट को डिस्ट्रिब्यूट करने की परमिशन देने की जनहित वैल्यू, नुकसान के जोखिम से ज़्यादा नहीं है. Meta ने इस तथ्य पर विचार किया कि फ़ुटेज में पीड़ित दिखाई दे रहे हैं और उसे हमलों के ठीक बाद शेयर किया गया था. उसके अनुसार, निंदा करने या जागरूकता फैलाने के लिए फ़ुटेज दिखाना ज़रूरी नहीं है.

Meta यह मानता है कि संदर्भ पर ध्यान दिए बगैर इस तरह के कंटेंट को हटाने से “अभिव्यक्ति पर ज़रूरत से ज़्यादा एन्फ़ोर्समेंट का खतरा हो सकता है और सार्वजनिक चिंता से जुड़ी घटनाओं के बारे में जानकारी और जागरूकता में कमी आ सकती है, खास तौर पर जब उसके साथ ऐसे हमलों की निंदा करने वाली, जागरूकता फैलाने वाली या निष्पक्ष रूप से चर्चा करने वाली कमेंटरी मौजूद हो.” फ़िलहाल जो डिफ़ॉल्ट तरीका अपनाया जाता है, उसमें कंपनी MMS बैंक को ऐसे सभी कंटेंट को हटाने के लिए कॉन्फ़िगर करती है जिसका मैच बैंक किए गए कंटेंट से होता है, चाहे उसका कैप्शन कुछ भी हो. प्रोफ़ाइल पर कोई स्ट्राइक नहीं लगाई जाती. यह तरीका कोई पेनल्टी लगाए बिना आपत्तिजनक कंटेंट के डिस्ट्रिब्यूशन को रोकता है, इस बात को समझते हुए कि कई यूज़र्स किसी संकट के चित्रण को विधिसम्मत कारणों से या बुरे इरादों के बिना शेयर कर सकते हैं. Meta ने आतंकवादी हमले दिखाने वाले वीडियो सहित चिह्नित हिंसक हमलों की फ़ोटो और वीडियो के संबंध में एक औपचारिक पॉलिसी निर्माण प्रोसेस पर अमल किया है. वह प्रोसेस इस वर्ष इन तीन केसों के कंटेंट के पोस्ट होने के बाद समाप्त हुई. इस प्रोसेस के परिणामस्वरूप Meta ने यह तरीका अपनाया: किसी घटना को चिह्नित किए जाने के बाद, Meta मौजूदा प्रोटोकॉल अवधि से आगे भी लंबे समय तक शेयर करने के सभी संदर्भों में स्ट्राइक के बिना घटना से जुड़ी सभी उल्लंघन करने वाली फ़ोटो और वीडियो को हटाएगा (पीड़ितों पर हमले के पलों को दिखाने वाली अपराधियों द्वारा जेनरेट की गई या थर्ड पार्टी की फ़ोटो और वीडियो सहित). इस अवधि के बाद, महिमामंडन, समर्थन या प्रतिनिधित्व के साथ शेयर की गई फ़ोटो और वीडियो को ही हटाया जाएगा और उन पर स्ट्राइक लागू होगी. कंपनी ने कहा कि यह तरीका, दूसरों के अधिकारों को होने वाले नुकसानों को कम करने का सबसे कब बाधक साधन है. इन अधिकारों में प्राइवेसी का अधिकार और पीड़ितों और उनके परिवारों की गरिमा की रक्षा करना शामिल है.

बोर्ड ने Meta से इस बारे में सवाल पूछे कि क्या कंपनी ने इस बात पर विचार किया कि मीडिया पर प्रतिबंध वाले देशों में पीड़ितों सहित हमले के पलों को दिखाने वाली अपराधियों द्वारा जेनरेट की गई और थर्ड पार्टी की सभी फ़ोटो और वीडियो को प्रतिबंधित करने का क्या असर होता है; क्या संकट पॉलिसी प्रोटोकॉल में ऐसे पॉलिसी लीवर्स मौजूद हैं जो चिह्नित घटनाओं के लिए प्रासंगिक हैं; और चिह्नित घटनाओं की फ़ोटो और वीडियो पर Meta की पॉलिसी निर्माण प्रोसेस का परिणाम क्या है. Meta ने सभी सवालों के जवाब दिए.

4. पब्लिक कमेंट

ओवरसाइट बोर्ड को सबमिट करने की शर्तों को पूरा करने वाले छह पब्लिक कमेंट मिले. इनमें से पाँच कमेंट अमेरिका और कनाडा से और एक पश्चिम अफ़्रीका से सबमिट किया गया था. प्रकाशन की सहमति के साथ सबमिट किए गए पब्लिक कमेंट पढ़ने के लिए यहाँ क्लिक करें.

सबमिशन में इन विषयों पर बात की गई थी: ज़रूरत से ज़्यादा एन्फ़ोर्समेंट के जोखिम; चिह्नित एंटिटी द्वारा आपत्तिजनक वीडियो का उपयोग और कट्टरता का जोखिम; आपत्तिजनक कंटेंट के प्रसार के मनोवैज्ञानिक नुकसान; अपराधियों द्वारा बनाए गए और थर्ड पार्टी के फ़ुटेज के बीच अंतर करने में आने वाली कठिनाइयाँ; संकट के दौरान समय से जानकारी पहुँचाने में सोशल मीडिया का महत्व; जनता, पत्रकारों और रिसर्चर्स द्वारा डॉक्यूमेंटेशन के लिए ऐसे कंटेंट की वैल्यू; उम्र के अनुसार प्रतिबंधित करने वाली चेतावनी स्क्रीन का विकल्प; और खतरनाक संगठनों और लोगों और हिंसक और आपत्तिजनक कंटेंट से जुड़ी पॉलिसीज़ में परिभाषाओं को स्पष्ट करने की ज़रूरत.

5. ओवरसाइट बोर्ड का विश्लेषण

बोर्ड ने Meta की कंटेंट पॉलिसी, वैल्यू और मानवाधिकार से जुड़ी ज़िम्मेदारियाँ के संबंध में इन केस में दिए गए Meta के फ़ैसलों का विश्लेषण किया. बोर्ड ने यह भी आकलन किया कि कंटेंट गवर्नेंस को लेकर Meta के व्यापक दृष्टिकोण पर इन केसों का क्या असर पड़ेगा.

5.1 Meta की कंटेंट पॉलिसी का अनुपालन

I. कंटेंट से जुड़े नियम

बोर्ड को यह स्पष्ट है कि तीनों पोस्ट (दो वीडियो और एक फ़ोटो), “पीड़ितों को दिखाते हुए [चिह्नित] हमलों के पलों को दिखाने वाली थर्ड पार्टी की फ़ोटो और वीडियो” पर Meta के प्रतिबंध का उल्लंघन करती हैं. Meta ने इन पोस्ट को शेयर किए जाने से पहले, मास्को में 22 मार्च को हुए हमले को अपनी खतरनाक संगठनों और लोगों से जुड़ी पॉलिसी के तहत चिह्नित किया था. कम्युनिटी में बताए गए और आंतरिक गाइडलाइन में विस्तार से समझाए गए इस नियम में हमलों के सभी फ़ुटेज को प्रतिबंधित किया गया है, चाहे उसे शेयर करने का संदर्भ कुछ भी हो या उसका कैप्शन कैसा भी हो (इज़राइल से बंधकों का अपहरण फ़ैसला देखें).

वीडियो में दिखाया गया है कि हथियारबंद लोग निहत्थे लोगों को करीब से गोलियाँ मार रहे हैं. कुछ पीड़ित ज़मीन पर पड़े हैं जबकि कुछ लोग भाग रहे हैं. वीडियो में गोलियों और लोगों के चिल्लाने की आवाज़ें आ रही थीं. तीसरी पोस्ट में इसी घटना की फ़ोटो थी. तीनों पोस्ट में रिपोर्ट करने, जागरूकता फैलाने या निंदा करने का संदर्भ था, लेकिन Meta ने इन कारणों से छूट नहीं दी क्योंकि पीड़ितों के साथ हमलों के पलों की थर्ड पार्टी फ़ोटो और वीडियो पर प्रतिबंध है.

हालाँकि, बोर्ड के बहुसंख्य सदस्यों ने पाया कि तीनों पोस्ट का मुख्य उद्देश्य वही है जिसकी रक्षा खबरों में रहने लायक होने की छूट द्वारा की जाती है. कंटेंट में ऐसी घटना शामिल थी जिसने पूरी दुनिया में सुर्खियाँ बटोरी. कंटेंट के हर हिस्से को हमले के तुरंत बाद शेयर किया गया था और उसमें ऐसी जानकारी थी जिसे आम लोगों के लिए ही बनाया गया था. इस दौरान जब इससे जुड़े तथ्य ज्वलंत वाद-विवाद और चर्चा के विषय थे कि क्या हुआ, कौन इसके लिए ज़िम्मेदार है और रूसी सरकार किस तरह जवाब दे रही है, इस कंटेंट की जनहित वैल्यू खास तौर पर ज़्यादा थी. इस तरह की फ़ोटो और वीडियो पूरी दुनिया के लोगों को सरकारी मीडिया या अन्य आउटलेट द्वारा फ़िल्टर किए गए कंटेंट पर पूरी तरह निर्भर रहे बिना घटनाओं के बारे में अपना नज़रिए बनाने की सुविधा देते हैं. बोर्ड, रूस में मीडिया की आज़ादी पर नियंत्रण और जानकारी की ऐक्सेस पर इसके असर को अपने विश्लेषण के लिए प्रासंगिक मानता है, यह देखते हुए कि वे ऐसे कंटेंट के महत्व को रेखांकित करते हैं जो लोगों को जानकारी देने में मदद कर सकते हैं. प्राइवेसी और गरिमा के हितों की तुलना में विचार करते समय यह तथ्य कि तीनों पोस्ट में पीड़ित दिखाई दे रहे हैं लेकिन उन्हें पहचाना नहीं जा सकता, इस कंटेंट को जनहित की दिशा में झुकाने में आगे मदद करता है. बोर्ड के फ़ैसले के लिए प्रासंगिक अतिरिक्त विश्लेषण और अल्पसंख्य नज़रिए के लिए, नीचे दिया गया मानवाधिकार सेक्शन देखें.

II. पारदर्शिता

Meta के अनुसार, “संकट की स्थितियों में ज़रूरत से ज़्यादा एन्फ़ोर्समेंट” का समाधान करने के लिए कंपनी के पास संकट पॉलिसी प्रोटोकॉल का एक सेट है. हालाँकि, कंपनी ने इन लीवर्स का उपयोग नहीं किया क्योंकि मॉस्को में हुए हमले को प्रोटोकॉल के तहत संकट के रूप में चिह्नित नहीं किया गया था. Meta ने बोर्ड के उस सुझाव के जवाब में संकट पॉलिसी प्रोटोकॉल बनाया था जिसमें कहा गया था कि कंपनी को एक ऐसी पॉलिसी बनाना और प्रकाशित करना चाहिए जो संकट या नए तरह की स्थितियों में Meta की प्रतिक्रिया की निगरानी करे ( पूर्व राष्ट्रपति ट्रंप का सस्पेंशन, सुझाव सं. 19). बोर्ड ने फिर Meta से कहा कि वह संकट पॉलिसी प्रोटोकॉल के बारे में ज़्यादा जानकारी प्रकाशित करे ( टिग्रे कम्युनिकेशन अफ़ेयर्स ब्यूरो, सुझाव सं. 1). जवाब में, Meta ने अपने ट्रांसपेरेंसी सेंटर पर यह व्याख्या प्रकाशित की लेकिन उसके बाद भी पूरे प्रोटोकॉल को सार्वजनिक रूप से शेयर करने से इंकार कर दिया. बोर्ड ने पाया कि सार्वजनिक रूप से शेयर की गई संक्षिप्त व्याख्या, यूज़र्स और जनता के लिए संकट पॉलिसी प्रोटोकॉल को समझने के लिए पर्याप्त नहीं है. संकट और संघर्ष की स्थितियों में Meta की ओर से प्रभावी और एक जैसी प्रतिक्रिया सुनिश्चित करने के लिए, बोर्ड ऐसे प्रोटोकॉल के महत्व पर पहले ही ज़ोर दे चुका है. 2022 का “ संकट के समय में कंटेंट और प्लेटफ़ॉर्म के नियंत्रण के लिए सिद्धांतों की घोषणा” – जिसे NGO Access Now, Article 19, Mnemonic, Center of Democracy and Technology, JustPeace Labs, Digital Security Lab Ukraine, Center for Democracy and Rule of Law (CEDEM) और Myanmar Internet Project द्वारा बनाया गया था – संकट के समय में प्रभावी कंटेंट नियंत्रण के लिए मुख्य टूल के रूप में संकट प्रोजेक्ट के निर्माण की पहचान करता है. हालाँकि बोर्ड और आम लोगों को इस बात की पूरी जानकारी नहीं है कि इस केस में संकट पॉलिसी प्रोटोकॉल लागू क्यों नहीं किया गया और अगर इस बात की जानकारी होती तो कंटेंट से किया गया व्यवहार कैसे अलग होता. इसलिए, इस बारे में ज़्यादा पारदर्शिता ज़रूरी है कि प्रोटोकॉल का उपयोग कब और कैसे किया जाता है, प्रोटोकॉल की प्रभावशीलता के बारे में कंपनी द्वारा किए जाने वाले ऑडिट और मूल्यांकनों के परिणाम क्या हैं और पहचानी गई कमियाँ दूर करने के लिए पॉलिसीज़ या सिस्टम में क्या बदलाव किए गए हैं. बिज़नेस और मानवाधिकारों के बारे में संयुक्त राष्ट्र के मार्गदर्शक सिद्धांत (UNGP) के अनुसार, कंपनियों को “अपने [न्यूनीकरण उपायों] की प्रभावशीलता का ट्रैक” रखना चाहिए (सिद्धांत 20) और “इसे बाहर कम्युनिकेट करना चाहिए” (सिद्धांत 21). ऐसे प्रकटीकरण के बिना बोर्ड, Meta के यूज़र बेस या नागरिक समाज के लिए यह समझना असंभव है कि प्रोटोकॉल कितनी अच्छी तरह काम कर रहा है या उसकी दक्षता कैसे बढ़ाई जा सकती है.

5.2 Meta की मानवाधिकारों से जुड़ी ज़िम्मेदारियों का अनुपालन

बोर्ड ने पाया कि भले ही पोस्ट से Meta की खतरनाक संगठनों और लोगों से जुड़ी पॉलिसी का उल्लंघन होता है, इस कंटेंट को हटाना Meta की पॉलिसीज़, अभिव्यक्ति की वैल्यू के लिए उसकी प्रतिबद्धता या उसकी मानवाधिकार से जुड़ी ज़िम्मेदारियों के अनुरूप नहीं है.

अभिव्यक्ति की आज़ादी (आर्टिकल 19 ICCPR)

16 मार्च, 2021 को Meta ने अपनी कॉर्पोरेट मानवाधिकार पॉलिसी की घोषणा की, जिसमें उसने बिज़नेस और मानवाधिकार के बारे में संयुक्त राष्ट्र के मार्गदर्शक सिद्धांतों (UNGP) के अनुसार अधिकारों का ध्यान रखने की अपनी प्रतिबद्धता दर्शाई. UNGP, जिसे 2011 में संयुक्त राष्ट्र की मानवाधिकार समिति का समर्थन मिला है, प्राइवेट बिज़नेस की मानवाधिकारों से जुड़ी ज़िम्मेदारियों का स्वैच्छिक ढाँचा तैयार करते हैं. इन ज़िम्मेदारियों का अर्थ है कि अन्य बातों के अलावा कंपनियों को “अन्य लोगों के मानवाधिकारों का हनन करने से बचना चाहिए और शामिल लोगों के मानवाधिकारों पर पड़ने वाले प्रतिकूल प्रभावों का समाधान करना चाहिए,” (सिद्धांत 11, UNGP). कंपनियों से अपेक्षा की जाती है कि: “(a) वे अपनी गतिविधियों से मानवाधिकारों पर प्रतिकूल प्रभाव पड़ने का कारण बनने या उसमें योगदान देने से बचें और ऐसे प्रभाव पड़ने पर उनका समाधान करें; (b) मानवाधिकारों पर पड़ने वाले ऐसे प्रतिकूल प्रभावों को रोकें या उन्हें कम करें जो सीधे उनके कामकाज, प्रोडक्ट या उनके बिज़नेस रिलेशनशिप की सेवाओं से सीधे संबंधित होते हैं, भले ही उनसे उन प्रभावों में योगदान नहीं हुआ हो,” (सिद्धांत 13, UNGP).

Meta के कंटेंट मॉडरेशन संबंधी आचरणों के अभिव्यक्ति की आज़ादी के अधिकार पर प्रतिकूल प्रभाव पड़ सकते हैं. दीवानी और राजनैतिक अधिकारों पर अंतरराष्ट्रीय प्रतिज्ञापत्र (ICCPR) के अनुच्छेद 19 में राजनैतिक बातचीत में इसके महत्व को देखते हुए इस अधिकार को व्यापक सुरक्षा प्रदान की गई है और मानवाधिकार कमिटी ने यह नोट किया है कि यह उस अभिव्यक्ति की भी सुरक्षा करता है जो गहन आपत्तिजनक हो सकती है ( सामान्य कमेंट सं. 34, पैरा. 11, 13 और 38). जहाँ राज्य, अभिव्यक्ति पर प्रतिबंध लगाता है, वहाँ प्रतिबंधों को वैधानिकता, वैधानिक लक्ष्य और आवश्यकता तथा आनुपातिकता की शर्तों को पूरा करना चाहिए (अनुच्छेद 19, पैरा. 3, ICCPR). इन आवश्यकताओं को अक्सर “तीन भागों वाला परीक्षण” कहा जाता है. Meta की स्वैच्छिक मानवाधिकार प्रतिबद्धताओं को समझने के लिए बोर्ड इस फ़्रेमवर्क का उपयोग करता है - रिव्यू किए जा रहे कंटेंट से जुड़े व्यक्तिगत फ़ैसलों और कंटेंट संबंधी नियमों के मामले में Meta के व्यापक नज़रिए, दोनों के लिए. जैसा कि राय और अभिव्यक्ति की आज़ादी के बारे में संयुक्त राष्ट्र के खास रैपर्टर में कहा गया है कि भले ही “कंपनियों का सरकारों के प्रति दायित्व नहीं है, लेकिन उनका प्रभाव इस तरह का है जो उनके लिए अपने यूज़र की सुरक्षा के बारे में इस तरह के सवालों का मूल्यांकन करना ज़रूरी बनाता है” (A/74/486, पैरा. 41).

I. वैधानिकता (नियमों की स्पष्टता और सुलभता)

वैधानिकता के सिद्धांत के लिए यह ज़रूरी है कि अभिव्यक्ति को सीमित करने वाले नियमों को एक्सेस किया जा सकता हो और वे स्पष्ट हों. उन्हें पर्याप्त सटीकता के साथ बनाया गया हो ताकि लोग अपने व्यवहार को उसके अनुसार बदल सकें (सामान्य टिप्पणी सं. 34, पैरा. 25). इसके अलावा, ये नियम “उन लोगों को अभिव्यक्ति की आज़ादी पर प्रतिबंध लगाने के निरंकुश अधिकार नहीं दे सकते, जिनके पास इन नियमों को लागू करने की ज़िम्मेदारी है” और नियमों में “उन लोगों के लिए पर्याप्त मार्गदर्शन भी होना ज़रूरी है जिन पर इन्हें लागू करने की ज़िम्मेदारी है ताकि वे यह पता लगा सकें कि किस तरह की अभिव्यक्ति को उचित रूप से प्रतिबंधित किया गया है और किसे नहीं,” (पूर्वोक्त). अभिव्यक्ति की आज़ादी पर संयुक्त राष्ट्र संघ के विशेष रैपर्टर ने कहा है कि ऑनलाइन अभिव्यक्ति की निगरानी करने के मामले में निजी संस्थानों पर लागू होने वाले नियम स्पष्ट और विशिष्ट होने चाहिए (A/HRC/38/35, पैरा. 46). Meta के प्लेटफ़ॉर्म का उपयोग करने वाले लोगों के पास इन नियमों की एक्सेस होनी चाहिए और उन्हें ये नियम समझ में आने चाहिए. साथ ही, उन नियमों के एन्फ़ोर्समेंट के बारे में कंटेंट रिव्यूअर्स को स्पष्ट मार्गदर्शन दिया जाना चाहिए.

बोर्ड ने पाया कि खतरनाक संगठनों और लोगों से जुड़ी पॉलिसी के तहत उल्लंघन करने वाली हिंसक घटनाओं के फ़ुटेज से जुड़ा नियम, संभवतः यूज़र्स के लिए भ्रम की स्थिति बनाता है. पॉलिसी के “हम ऐसे कंटेंट को हटा देते हैं” सेक्शन में कहा गया है: “हम टियर 1 और टियर 2 के अंतर्गत आने वाली एंटिटी और चिह्नित ईवेंट के महिमामंडन को हटा देते हैं. टियर 1 और चिह्नित ईवेंट के लिए, हम ऐसे अस्पष्ट और बिना संदर्भ वाले रेफ़रेंस को भी हटा सकते हैं जिसमें यूज़र ने साफ़ तौर पर अपना इरादा न जताया हो.” अपराधियों द्वारा बनाई गई और थर्ड पार्टी की फ़ोटो और वीडियो पर प्रतिबंध की विशेष रूप से व्याख्या करने वाली लाइन (जो उपरोक्त से अलग पॉलिसी है) “पॉलिसी बनाने के कारण” में और कम्युनिटी स्टैंडर्ड के “खतरनाक संगठनों के प्रकार और टियर” के रूप में चिह्नित सेक्शन में दिखाई देती है. “हम ऐसे कंटेंट को हटा देते हैं” सेक्शन में दी गई भाषा यह बताती है कि किसी घटना की निंदा करने और उसकी न्यूज़ रिपोर्टिंग करने की परमिशन है, जबकि दूसरे सेक्शन (पॉलिसी बनाने का कारण और प्रकार/टियर) में कहा गया है कि पीड़ितों के साथ दिखाए जाने पर हमले के पलों की अपराधियों द्वारा बनाई गई और थर्ड पार्टी की फ़ोटो और वीडियो पर प्रतिबंध है. इसमें यह नहीं बताया गया है कि Meta इसे तब भी हटा देगा जब उसका उद्देश्य या भाषा विन्यास कुछ भी हो (जैसे निंदा करना या जागरूकता फैलाना). इस नियम का प्लेसमेंट और लागू छूट के दायरों की स्पष्टता में कमी से अनावश्यक भ्रम पैदा होता है. Meta को चिह्नित घटनाओं के फ़ुटेज से जुड़े नियम को उल्लंघन करने वाली हिंसक घटनाओं के लिए एक अलग सेक्शन बनाते हुए “हम ऐसे कंटेंट को हटा देते हैं” सेक्शन में ले जाना चाहिए.

II. वैधानिक लक्ष्य

खतरनाक संगठनों और लोगों से जुड़ी पॉलिसी का लक्ष्य “असली दुनिया को होने वाले नुकसानों को रोकना और उनमें रुकावट डालना है.” कई फ़ैसलों में, बोर्ड ने पाया है कि यह पॉलिसी, अन्य लोगों के अधिकारों की सुरक्षा करने के विधिसम्मत लक्ष्य को पूरा करती है, जैसे जीवन का अधिकार (ICCPR, अनुच्छेद 6) और खुद से भेदभाव न होने देने और समानता का अधिकार (ICCPR, अनुच्छेद 2 और 26), क्योंकि इसमें ऐसे संगठनों को कवर किया गया है जो नफ़रत, हिंसा और भेदभाव को बढ़ावा देते हैं और साथ ही नफ़रत से उकसाई गई हिंसक घटनाओं को भी चिह्नित किया गया है. चिह्नित खतरनाक लोगों को “शहीद” कहना,सूडान की रैपिड सपोर्ट फ़ोर्स का बंधक वाला वीडियो, इज़राइल से बंधकों का अपहरण और ग्रीस में 2023 का चुनावी कैंपेन फ़ैसले देखें. Meta की पॉलिसीज़ को पहचाने जा सकने वाले पीड़ितों और उनके परिवारों की प्राइवेसी के अधिकार की रक्षा करने के विधिसम्मत लक्ष्य की भी पूर्ति करती हैं (नाइजीरिया के चर्च पर हुए हमले के बाद का वीडियो फ़ैसला देखें).

III. आवश्यकता और आनुपातिकता

ICCPR के आर्टिकल 19(3) के तहत, आवश्यकता और आनुपातिकता के सिद्धांत के अनुसार यह ज़रूरी है कि अभिव्यक्ति की स्वतंत्रता पर लगाए जाने वाले प्रतिबंध “उनके सुरक्षात्मक कार्य को सही तरीके से पूरा करने वाले होने चाहिए; उनसे उन लोगों के अधिकारों के साथ कम से कम हस्तक्षेप होना चाहिए, जिन अधिकारों से उन्हें सुरक्षात्मक कार्यों का लाभ मिल सकता है; उन हितों के अनुसार सही अनुपात में होने चाहिए, जिनकी सुरक्षा की जानी है” (सामान्य कमेंट सं. 34, पैरा. 34).

इन तीन केसों में, बोर्ड के बहुसंख्य सदस्यों ने पाया कि इन तीनों पोस्ट से कट्टरता और उकसावे का कोई स्पष्ट और वास्तविक जोखिम नहीं था. हर पोस्ट में हमले की स्पष्ट शब्दों में निंदा की गई थी, पीड़ितों से एकजुटता या उनके लिए चिंता दिखाई गई थी और लोगों को हमले के बारे में सूचित करना चाहा गया था. वीडियो को हमले के तुरंत बाद पोस्ट किया गया था और पहली पोस्ट के कैप्शन में स्पष्ट रूप से पीड़ितों के लिए समर्थन दर्शाया गया था और यह दिखाया गया था कि कंटेंट को पोस्ट करने वाले व्यक्ति, जानकारी शेयर करने के लिए ऐसा कर रहा है ताकि लोग इस घटना को बेहतर तरीके से समझ सकें. दूसरी पोस्ट करने वाले व्यक्ति ने रूस में पीड़ितों से एकजुटता व्यक्त की और हिंसा की निंदा की. और तीसरी पोस्ट में एक स्टिल फ़ोयो और संक्षिप्त वीडियो के साथ घटना की जानकारी दी गई. यह रिपोर्ट किया गया कि किसी भी व्यक्ति ने अभी तक घटना की ज़िम्मेदारी नहीं ली है और यह कि यूक्रेन ने कहा है कि हमले में उसकी कोई भूमिका नहीं है; यह कंटेंट उस प्रोपेगंडा के विपरीत था जिसे रूसी मीडिया द्वारा व्यापक रूप से फैलाया जा रहा था. इस बात के निराधार डर के कारण कि इससे कट्टरता को बढ़ावा मिल सकता है, आम लोगों से निकटता से जुड़ी चिंता के मामलों के कंटेंट को दबाना, Meta की मुक्त अभिव्यक्ति से जुड़ी ज़िम्मेदारियों के अनुरूप नहीं है, खास तौर पर जब उसी फ़ुटेज को लाखों लोगों द्वारा देखा गया हो और उसके साथ यूक्रेन के आंशिक रूप से शामिल होने के आरोप जुड़े हों. बोर्ड ने संकट के समय और रूस में मीडिया पर नियंत्रण की स्थिति में जानकारी की ऐक्सेस बनाए रखने के महत्व को नोट किया, खास तौर पर रूस में जहाँ लोग जानकारी पाने और अंतरराष्ट्रीय ऑडियंस के बीच जागरूकता फैलाने के लिए सोशल मीडिया पर निर्भर हैं.

Meta के हिंसक और आपत्तिजनक कंटेंट से जुड़े कम्युनिटी स्टैंडर्ड के तहत चेतावनी स्क्रीन के साथ ऐसी फ़ोटो और वीडियो को परमिशन देना, दूसरों के अधिकारों की रक्षा करने का कम प्रतिबंधात्मक साधन देता है (कम प्रतिबंधात्मक साधनों का पूरा विश्लेषण नीचे देखें). वह पॉलिसी “परेशान करने वाले के रूप में चिह्नित किया गया” चेतावनी स्क्रीन के साथ “ऐसी फ़ोटो और वीडियो की परमिशन देती है जिनमें लोगों की हिंसक मृत्यु दिखाई गई हो (उनकी मृत्यु के पल या उसके बाद की घटनाओं सहित) या जब कोई व्यक्ति जानलेवा घटना का अनुभव कर रहा हो.”

इसके अलावा, जैसा कि बोर्ड ने पहले कहा था कि जब फ़ोटो में ऐसी हिंसा के पीड़ितों को पहचाना जा सकता हो, तब कंटेंट में “उनके प्राइवेसी के अधिकार और उनके परिवारों के अधिकार सीधे जुड़े होते हैं,” (नाइजीरिया के चर्च पर हुए हमले के बाद का वीडियो फ़ैसला देखें). उस घटना, जिसमें एक आतंकवादी हमले के बाद के नृशंस दृश्य दिखाए गए थे, से संबंधित फ़ैसले में बोर्ड के बहुसंख्य सदस्यों ने तय किया था कि कंटेंट को हटाना न तो आवश्यक था और न ही आनुपातिक. बोर्ड ने पोस्ट को उम्र संबंधी चेतावनी स्क्रीन के साथ रीस्टोर करने के लिए कहा था. इन तीन पोस्ट में विचाराधीन फ़ुटेज का रिज़ॉल्यूशन अच्छा नहीं है और हमलावरों और गोली खाते लोगों को देखा तो जा सकता है, लेकिन उन्हें आसानी से पहचाना नहीं जा सकता. कुछ परिस्थितियों में, पहचाने जा सकने वाली पीड़ितों को दिखाने वाले कंटेंट को हटाना आवश्यक और आनुपातिक होता है (जैसे सशस्त्र संघर्ष में जब पीड़ित युद्धबंदी होते हैं या ऐसे बंधक जिन्हें अंतरराष्ट्रीय कानून के अनुसार विशेष सुरक्षा की ज़रूरत होती है). हालाँकि, इन तीन केसों में, यह देखते हुए कि पीड़ितों को आसानी से पहचाना नहीं जा सकता या उन्हें अपमानजनक या अमानवीय रूप से नहीं दिखाया गया है, पोस्ट को उम्र संबंधी चेतावनी स्क्रीन के साथ रीस्टोर करना Meta की मानवाधिकारों से जुड़ी ज़िम्मेदारियों के ज़्यादा अनुरूप है.

बोर्ड के कुछ सदस्य इस बात से सहमत नहीं हैं और वे इन तीन पोस्ट को Facebook से हटाने के Meta के फ़ैसले को बनाए रखना चाहते हैं. ये अल्पसंख्य सदस्य इस बात से सहमत हैं कि इस केस के कंटेंट, जिसे घटनास्थल पर मौजूद किसी व्यक्ति ने कैप्चर किया और हमले की रिपोर्ट करने या उसकी आलोचना करने के लिए शेयर किया, से हिंसा भड़कने या कट्टरता को बढ़ावा मिलने की संभावना नहीं है. हालाँकि, इन अल्पसंख्य सदस्यों के अनुसार, गोलियों और चीखों की आवाज़ों के साथ इस फ़ुटेज की आपत्तिजनक प्रकृति और हमले के पलों और इस केस में पीड़ितों की मृत्यु (भले ही उन्हें आसानी से पहचाना न जा सके) को दिखाए जाने के चलते, पीड़ितों और उनके परिवारों की प्राइवेसी और गरिमा के लिए कंटेंट को हटाना ज़रूरी है. आतंकवादी हमलों के बाद की घटनाओं के संबंध में, जब हिंसा का फ़ुटेज जल्दी और व्यापक रूप से फैलता है और हमले में बचे लोगों और मारे गए लोगों के परिवारों को फिर से सदमा दे सकता है, बोर्ड के अल्पसंख्य सदस्यों का मानना है कि नागरिकों को खबरों में रहने लायक कंटेंट की ऐक्सेस देने की जनहित वैल्यू के बजाय पीड़ितों और उनके परिवारों की प्राइवेसी और गरिमा को प्राथमिकता देकर Meta ने सही कहा. अल्पसंख्य सदस्यों के अनुसार, कंटेंट का खबरों में लायक होना इसे प्लेटफ़ॉर्म पर बनाए रखने के लिए ज़रूरी नहीं है. इन सदस्यों ने कहा कि 22 मार्च के हमले को रूस की मीडिया और अंतरराष्ट्रीय मीडिया द्वारा व्यापक कवरेज दिया गया है. इसलिए, इन सदस्यों के अनुसार इस फ़ुटेज को Meta के प्लेटफ़ॉर्म पर परमिशन देना, हमले की जानकारी की ऐक्सेस सुनिश्चित करने के लिए ज़रूरी नहीं था. जो यूज़र्स हमले के बारे में कमेंट करना चाहते थे या यूक्रेन के बारे में सरकार की सोच को चुनौती देना चाहते थे, वे फ़ुटेज के सर्वाधिक आपत्तिजनक पलों को शेयर किए बिना ऐसा कर सकते थे.

बोर्ड यह समझता है कि हाल ही की पॉलिसी निर्माण प्रोसेस में आतंकवादी हमलों की फ़ोटो और वीडियो पर अपनी पॉलिसी बनाते और स्वीकार करते समय, Meta ने सुरक्षा और प्राइवेसी की ओर झुकाव रखा है और ऐसा करते समय उसी कारण पर विचार किया है जो अल्पसंख्य सदस्यों ने प्राइवेसी को लेकर बताया था. कंपनी ने बताया कि इससे प्रतिकूल व्यवहार का जोखिम है, जैसे थर्ड पार्टी के फ़ुटेज का उपयोग हिंसक लोगों द्वारा किया जा सकता है, और बड़े पैमाने पर कंटेंट को मॉडरेट करते समय एन्फ़ोर्समेंट संबंधी परेशानियाँ आ सकती हैं, जिसका अर्थ है कि अगर ज़्यादा कंटेंट को परमिशन दी जाती है तो ये जोखिम बढ़ सकते हैं. पीड़ितों के दिखाई देने की स्थिति में कंपनी ने इन हमले के पीड़ितों और उनके परिवारों की प्राइवेसी और गरिमा को होने वाले जोखिम भी हाइलाइट किए. World Jewish Congress द्वारा सबमिट किए गए कमेंट में उन्हीं विचार योग्य बातों को हाइलाइट किया गया जो Meta ने बताई थीं. 7 अक्टूबर, 2023 को इज़राइल पर हमास के हमले के वीडियो के ऑनलाइन प्रसार का संदर्भ देते हुए सबमिशन में नोट किया गया कि “ऐसी घटनाओं में, यह समझना कठिन होता है कि कौन “वहाँ मौजूद व्यक्ति” था या कौन “थर्ड पार्टी” था, क्योंकि कई लोग आतंकवाद से जुड़े कंटेंट को फ़िल्माते हैं और उसे डिस्ट्रिब्यूट करते हैं,” (PC-29651).

बोर्ड ने यह स्वीकार किया कि डिजिटल युग में, कुछ आतंकवादियों द्वारा वीडियोग्राफ़ी और फ़ोटोग्राफ़ी टूल्स का उपयोग अपने कामों को डॉक्यूमेंट करने और उनका महिमामंडन करने के लिए किया जाता है. लेकिन चिह्नित एंटिटी द्वारा किए गए हमलों के सभी वीडियो इस उद्देश्य से नहीं बनाए जाते, यह असर पाने के लिए कैलिब्रेट नहीं किए जाते या व्यूअर द्वारा इस तरह से नहीं देखे जाते. जिन फ़ोटो और वीडियो को अपराधियों या उनके समर्थकों द्वारा नहीं बनाया जाता, उनका उद्देश्य आतंकवाद का महिमामंडन करना या उसे बढ़ावा देना नहीं होता. जब वहाँ मौजूद किसी व्यक्ति, किसी पीड़ित, किसी स्वतंत्र पत्रकार या किसी CCTV कैमरे द्वारा रिकॉर्ड किया जाता है, तब फ़ोटो और वीडियो का उद्देश्य सनसनी फैलाना और हिंसा को बढ़ावा देना नहीं होता और उनसे ऐसा होने की आशंका कम होती है (जैसे किसी अपराधी द्वारा हैंडीकैम से रिकॉर्ड किए गए फ़ुटेज और किसी CCTV कैमरे या वहाँ मौजूद किसी व्यक्ति द्वारा रिकॉर्ड किए गए फ़ुटेज से अलग होता है). इसमें हिंसा के डर को कैप्चर किया जाएगा लेकिन उसकी प्रस्तुति इसका महत्व नहीं बताएगी या इसे बढ़ावा नहीं देगी. इस बात का जोखिम मौजूद होता है कि हमलों की फ़ोटो और वीडियो का उपयोग हिंसा या आतंकवाद का महिमामंडन करने और नकल करने वाले व्यवहार में किया जाए और उसमें फिर से कास्ट करने का कोई संकेत मौजूद न हो, लेकिन इस पर पूरी तरह प्रतिबंध लगाने से हिंसक हमलों को डॉक्यूमेंट करने वाले वीडियो के पीड़ितों के प्रति सहानुभूति जगाने, उत्तरदायित्व तय करने और महत्वपूर्ण घटनाओं के बारे में लोगों को जागरूक करने, अपराधियों के प्रति गुस्से और तिरस्कार की भावना लाने और आतंकवादी समूहों और उनकी गतिविधियों के नृशंस प्रकृति के बारे में लोगों को जानकारी देने की क्षमता नज़रअंदाज होगी.

चिह्नित खतरनाक लोगों को “शहीद” कहना केस में पॉलिसी एडवाइज़री टीम की राय में बोर्ड ने संयुक्त राष्ट्र सुरक्षा परिषद के कई रिज़ॉल्यूशन को नोट किया जिनमें देशों से कहा गया है कि वे आतंकवादी कृत्यों को उकसावे का समाधान करे और जिनमें आतंकी संगठनों द्वारा इंटरनेट के उपयोग पर चिंता जताई गई है. संयुक्त राष्ट्र सुरक्षा परिषद रिज़ॉल्यूशन 1624 (2005), UNSC रिज़ॉल्यूशन 2178 (2014) और UNSC रिज़ॉल्यूशन 2396 (2017) देखें. Meta के नज़रिए को इन चिंताओं के समाधान की कोशिश के रूप में देखा जा सकता है. हालाँकि जैसा कि बोर्ड ने पॉलिसी एडवाइज़री टीम की राय में भी नोट किया है, आतंकवाद से निपटते समय मानवाधिकारों और बुनियादी आज़ादी के प्रमोशन और सुरक्षा पर संयुक्त राष्ट्र के विशेष रैपर्टर ने ज़रूरत से ज़्यादा व्यापक नियमों को अपनाने के खिलाफ़ चेताया है और “वर्जित परिणाम के होने के अनौपचारिक लिंक या वास्तविक जोखिम” के बजाय अभिव्यक्ति के कंटेंट पर फ़ोकस करने के असर पर बात की है, (रिपोर्ट A/HRC/40/52, पैरा. 37). अभिव्यक्ति की आज़ादी पर संयुक्त राष्ट्र के विशेष रैपर्टर की इंटरनेट और आतंकवाद निरोधक उपायों पर संयुक्त घोषणा, मीडिया की आज़ादी पर OSCE प्रतिनिधि और अभिव्यक्ति की आज़ादी पर OAS विशेष रैपर्टर (2005) भी देखें.

बोर्ड इस बात से सहमत है कि अगर पॉलिसी के अपवाद बनाए जाते हैं, तो आतंकवादी हमले दिखाने वाले कंटेंट पर ज़रूरत से कम एन्फ़ोर्समेंट होने का जोखिम होगा और फ़ुटेज का बुरे उद्देश्यों के लिए फिर से उपयोग किया जा सकता है. Meta इन उद्देश्यों को पहचान नहीं पाएगा और उन्हें प्रभावी रूप से हटा नहीं पाएगा. बोर्ड ने Meta को सुझाव दिया कि वह लोगों को भर्ती करने और उन्हें कट्टर बनाने में उसके प्लेटफ़ॉर्म का उपयोग करने के जोखिम का समाधान करे और पीड़ितों की प्राइवेसी और गरिमा के जोखिमों से निपटे. हालाँकि, जैसा कि इन केसों की पोस्ट से पता चलता है, हमलों की फ़ोटो के कई काम हो सकते हैं और ऐसी पॉलिसी से अभिव्यक्ति की आज़ादी, जानकारी की ऐक्सेस और लोगों की भागीदारी को जोखिम हो सकते हैं जो ज़रूरत से ज़्यादा एन्फ़ोर्समेंट की ओर झुकाव रखती है, जबकि ज़्यादा आनुपातिक परिणाम पाने के लिए कम प्रतिबंधात्मक साधन उपलब्ध होते हैं.

जब Meta उम्र संबंधी चेतावनी स्क्रीन लगाता है, तब कंटेंट उन यूज़र्स को उपलब्ध नहीं होता जिनकी उम्र 18 वर्ष से कम होती है. अन्य यूज़र्स कंटेंट देखने के लिए चेतावनी स्क्रीन को क्लिक करके आगे बढ़ना होता है और कंटेंट को फिर उन यूज़र्स के लिए सुझावों से हटा दिया जाता है जो अकाउंट को फ़ॉलो नहीं करते ( और इज़राइल से बंधकों का अपहरण फ़ैसले देखें). पहचानी गई फ़ोटो और वीडियो वाले सभी कंटेंट पर अपने आप “परेशान करने वाले के रूप में चिह्नित” चेतावनी स्क्रीन लगाने के लिए Meta, MMS बैंक पर भरोसा कर सकता है. इन उपायों से कंटेंट के वायरल होने या खास तौर पर उन कमज़ोर या आसानी से प्रभावित होने वाले यूज़र्स तक पहुँचने में कमी आ सकती है जिन्होंने इसे तलाश नहीं की है. इसलिए चेतावनी स्क्रीन से इस बात की आशंका कम होती है कि कंटेंट से नकल करने वाले लोगों को अनचाही प्रेरणा मिलेगी. चेतावनी स्क्रीन से बुरे लोगों द्वारा फ़ुटेज का फिर से उपयोग करने के जोखिम पूरी तरह समाप्त नहीं होते. हालाँकि, वायरल होने का जोखिम समाप्त होने पर Meta के पास एक अन्य, ज़्यादा टार्गेटेड टूल है जो बुरे इरादे वाले लोगों द्वारा फिर से उपयोग की पहचान करता है और ऐसे कंटेंट को प्लेटफ़ॉर्म से हटाता है (जैसे आंतरिक टीमें जो अपनी ओर से ऐसे कंटेंट की तलाश करती रहती हैं और भरोसेमंद पार्टनर चैनल). ज़्यादा टार्गेटेड तरीके के लिए निसंदेह रूप से अतिरिक्त रिसोर्स की ज़रूरत होगी. Meta के रिसोर्स के दायरे और मौजूदा तरीके के अभिव्यक्ति और जानकारी की ऐक्सेस पर असर को देखते हुए, ज़्यादा टार्गेटेड तरीका आवश्यक है.

हमलों की फ़ोटो से लोगों में नैतिक गुस्सा उत्पन्न हो सकता है, उनमें पीड़ितों के साथ एकजुटता का भाव आ सकता है और उनसे जानकारी को ऐसे लोगों से शेयर करने का तरीका मिल सकता है जो सबसे निचले स्तर पर मौजूद हैं या जो अंतरराष्ट्रीय ऑडियंस के रूप में मौजूद हैं. ऐसे कुछ संकेत भी देखे गए हैं कि जब लोग किसी खास पीड़ित की फ़ोटो या वीडियो देखते हैं, तो वे मदद करने लिए ज़्यादा तैयार होते हैं या मज़बूती से भावनात्मक प्रतिक्रिया देते हैं, जबकि संक्षिप्त डिस्क्रिप्शन या सिर्फ़ आँकड़ों के ज़रिए जानकारी प्रस्तुत करने से ऐसा नहीं होता. मीडिया पर पाबंदी के माहौल वाले ऐसे देश में जहाँ सरकार इस बात पर कठोर नियंत्रण रखती है कि लोगों को क्या दिखाई दे और जानकारी को कैसे प्रस्तुत किया जाए, वहाँ आम लोगों को मज़बूती से जागरूक करने वाले और राजनैतिक प्रमुखता वाले कंटेंट का सोशल मीडिया पर ऐक्सेस लायक होना ज़्यादा महत्वपूर्ण है. बहुसंख्य सदस्य इस नतीजे पर पहुँचे कि न्यूज़ रिपोर्टिंग करने, जागरूकता फैलाने और निंदा करने के लिए शेयर किए जाने पर पीड़ितों को दिखाने वाली, लेकिन स्पष्ट पहचान न बताने वाली, थर्ड पार्टी फ़ोटो और वीडियो पर प्रतिबंध और उनका निष्कासन न तो आवश्यक है और न ही आनुपातिक उपाय है. जब वीडियो/फ़ोटो को अपराधियों द्वारा बनाया जाता है, उनमें अमानवीय स्थितियों में पहचाने जाने लायक पीड़ितों को दिखाया जाता है या उनमें खास तौर पर कमज़ोर पीड़ित (जैसे बंधक या नाबालिग) होते हैं या जब उनका जागरूकता फैलाने वाला, रिपोर्टिंग या निंदा करने वाला उद्देश्य स्पष्ट नहीं होता, तब Meta के लिए निष्कासन की ओर झुकाव रखना उपयुक्त हो सकता है. लेकिन पीड़ितों को दिखाने वाली, हमलों की थर्ड पार्टी की फ़ोटो और वीडियो को प्रतिबंधित करने का नियम, भले ही उन्हें शेयर करने का कारण और संदर्भ कुछ भी हो, उस स्थिति में ज़्यादा उपयुक्त और कम प्रतिबंधात्मक उपाय नहीं है, जब यह स्पष्ट न हो कि ऐसे भारी-भरकम तरीके की वाकई ज़रूरत है.

Meta को “परेशान करने वाले के रूप में चिह्नित” चेतावनी के साथ न्यूज़ रिपोर्टिंग और निंदा करने के संदर्भ में थर्ड पार्टी की ऐसी फ़ोटो और वीडियो को परमिशन देनी चाहिए जिनमें हमले के समय के पीड़ितों के दृश्य हों लेकिन उन्हें पहचाना न जा सकता हो. यह खतरनाक संगठनों और लोगों से जुड़ी पॉलिसी बनाने के कारण के अनुरूप होगा, जिसमें कहा गया है कि: Meta की पॉलिसीज़ को इस तरह बनाया गया है कि … उनमें सामाजिक और राजनैतिक बातचीत के संदर्भ में चिह्नित संगठनों और लोगों के संदर्भ को जगह मिले जिसमें खतरनाक संगठनों और लोगों और उनकी गतिविधियों की रिपोर्टिंग करना, उनकी निष्पक्ष करना या उनकी निंदा करना [शामिल है].” हालाँकि, अलग-अलग तरह के हिंसक हमलों को देखते हुए जो चिह्नित करने के योग्य हैं और यह कि दी गई स्थिति का संदर्भ नकल करने वाले व्यवहार या दुर्भावनापूर्ण उपयोग के खास तौर पर उच्च जोखिम उत्पन्न कर सकता है, Meta को विशिष्ट स्थितियों का मूल्यांकन करने और बोर्ड द्वारा सुझाए गए पॉलिसी अपवाद को एन्फ़ोर्स करने के लिए विशेषज्ञ ह्यूमन रिव्यू का उपयोग करना चाहिए.

अल्पसंख्य सदस्यों के अनुसार, पीड़ितों को दिखाने वाली चिह्नित हमलों की सभी फ़ोटो और वीडियो पर प्रतिबंध की Meta की मौजूद पॉलिसी, कंपनी की मानवाधिकार से जुड़ी ज़िम्मेदारियों और आवश्यकता और आनुपातिकता के सिद्धांतों के अनुरूप है. इन सदस्यों के अनुसार, जब हमले के किसी ग्राफ़िक फ़ुटेज में पीड़ित दिखाई देते हैं, भले ही उन्हें आसानी से पहचाना न जा सके, तो बचने वाले लोगों और पीड़ितों की प्राइवेसी और गरिमा की रक्षा करने का लक्ष्य, अभिव्यक्ति की वैल्यू से बहुत बड़ा होता है. किसी थर्ड पार्टी द्वारा रिकॉर्ड किया गया कंटेंट भी पीड़ितों और उनके परिवारों की प्राइवेसी और गरिमा को नुकसान पहुँचा सकता है. और किसी व्यक्ति की मौत दिखाने वाले कंटेंट पर चेतावनी स्क्रीन लगाना, जैसा कि बहुसंख्य सदस्यों ने सुझाव दिया है, उन लोगों से पीड़ितों या उनके परिवारों की प्राइवेसी या गरिमा की रक्षा नहीं करता जो स्क्रीन को क्लिक करके आगे का कंटेंट देखते हैं. जैसा कि नाइजीरिया के चर्च पर हुए हमले के बाद का वीडियो फ़ैसले में अल्पसंख्य सदस्यों ने कहा है, आतंकवादी हमला होने की स्थिति में इस तरह की प्रकृति वाले वीडियो अक्सर वायरल होते हैं, जिससे नुकसान और फिर से सदमा पहुँचने का जोखिम बढ़ जाता है. पीड़ितों, बचने वाले लोगों और उनके परिवारों के मानवाधिकार को हो सकने वाले नुकसानों को रोकने और उन्हें कम करने के लिए Meta को तुरंत और बड़े पैमाने पर कदम उठाने चाहिए. इससे आतंक फैलने से निपटने के एक व्यापक सार्वजनिक उद्देश्य की भी पूर्ति होती है, जैसा कि इस तरह के हमले करने वाले अपराधियों का मंतव्य रहता है, क्योंकि वे जानते है कि सोशल मीडिया से उनके मनोवैज्ञानिक प्रभाव बढ़ेंगे. इसके अलावा, जैसा कि बोर्ड ने अपने पुराने फ़ैसलों में कहा है कि Meta, हिंसा के पहचाने जाने वाले पीड़ितों को दिखाने वाले वीडियो के लिए चेहरों को धुँधला करने वाले टूल जैसे टूल्स के लिए अपने प्रोडक्ट में ज़्यादा विशिष्ट निर्देश या उनकी ऐक्सेस देकर यूज़र्स के लिए बोझ कम कर सकता है और प्राइवेसी के जोखिम कम कर सकता है (पाकिस्तान में बाल दुर्व्यवहार से जुड़ी न्यूज़ डॉक्यूमेंट्री फ़ैसला देखें).

6. ओवरसाइट बोर्ड का फ़ैसला

ओवरसाइट बोर्ड ने तीनों पोस्ट को हटाने के Meta के फ़ैसले को पलट दिया और कंटेंट को “परेशान करने वाला” की चेतावनी स्क्रीन के साथ रीस्टोर करने के लिए कहा.

7. सुझाव

कंटेंट पॉलिसी

1. यह सुनिश्चित करने के लिए कि खतरनाक संगठनों और लोगों से जुड़ा कम्युनिटी स्टैंडर्ड उसके लक्ष्यों को आगे बढ़ाता है, Meta को न्यूज़ रिपोर्टिंग करने, निंदा करने और जागरूकता फैलाने के संदर्भ में शेयर किए जाने पर हमलों के पलों को दिखाने वाली किसी चिह्नित घटना, जिसमें पीड़ित दिखाई दे रहे हों पर उन्हें निजी रूप से पहचाना न जा सके, की थर्ड पार्टी इमेजरी को “परेशान करने वाले के रूप में चिह्नित” चेतावनी स्क्रीन के साथ परमिशन देनी चाहिए.

बोर्ड इस सुझाव को तब लागू मानेगा जब Meta, खतरनाक संगठनों और लोगों से जुड़े कम्युनिटी स्टैंडर्ड की लोगों को दिखाई देने वाली भाषा को ऊपर बताए अनुसार अपडेट करेगा.

2. स्पष्टता सुनिश्चित करने के लिए, Meta को खतरनाक संगठनों और लोगों से जुड़े कम्युनिटी स्टैंडर्ड के “हम ऐसे कंटेंट को हटा देते हैं” सेक्शन में एक नियम शामिल करना चाहिए और चिह्नित घटनाओं को दिखाने वाले कंटेंट से Meta के व्यवहार की व्याख्या को पॉलिसी बनाने के कारण से जुड़े सेक्शन से हटाकर इस सेक्शन में लाना चाहिए.

बोर्ड इस सुझाव को तब लागू मानेगा जब Meta अपने खतरनाक संगठनों और लोगों से जुड़े कम्युनिटी स्टैंडर्ड को अपडेट करके चिह्नित घटनाओं के फ़ुटेज से जुड़े नियम को पॉलिसी के “हम ऐसे कंटेंट को हटा देते हैं” सेक्शन में लाएगा.

*प्रक्रिया संबंधी नोट:

  • ओवरसाइट बोर्ड के फ़ैसले पाँच मेंबर्स के पैनल द्वारा लिए जाते हैं और उन पर बोर्ड के अधिकांश मेंबर्स की सहमति होती है. ज़रूरी नहीं है कि बोर्ड के फ़ैसले, सभी सदस्यों की राय दर्शाएँ.
  • अपने चार्टर के तहत, ओवरसाइट बोर्ड उन यूज़र्स की अपील रिव्यू कर सकता है, जिनका कंटेंट Meta ने हटा दिया था और उन यूज़र्स की अपील जिन्होंने उस कंटेंट की रिपोर्ट की थी जिसे Meta ने बनाए रखा. साथ ही, बोर्ड Meta की ओर से रेफ़र किए गए फ़ैसलों का रिव्यू कर सकता है (चार्टर आर्टिकल 2, सेक्शन 1). बोर्ड के पास Meta के कंटेंट से जुड़े फ़ैसलों को कायम रखने या उन्हें बदलने का बाध्यकारी अधिकार है (चार्टर आर्टिकल 3, सेक्शन 5; चार्टर आर्टिकल 4). बोर्ड ऐसे गैर-बाध्यकारी सुझाव दे सकता है, जिनका जवाब देना Meta के लिए ज़रूरी है (चार्टर आर्टिकल 3, सेक्शन 4; आर्टिकल 4). जहाँ Meta, सुझावों पर एक्शन लेने की प्रतिबद्धता व्यक्त करता है, वहाँ बोर्ड उनके क्रियान्वयन की निगरानी करता है.
  • इस केस के फ़ैसले के लिए, बोर्ड की ओर से स्वतंत्र रिसर्च करवाई गई थी. बोर्ड को Duco Advisers की सहायता मिली, जो भौगोलिक-राजनैतिक, विश्वास और सुरक्षा तथा टेक्नोलॉजी के आपसी संबंध पर काम करने वाली एक एडवाइज़री फ़र्म है. Memetica ने भी रिसर्च संबंधी सेवाएँ दीं, जो ऑनलाइन नुकसान को कम करने के लिए जोखिम परामर्श और खतरे की आशंका से जुड़ी सेवाएँ देने वाला एक डिजिटल इनवेस्टिगेशन ग्रुप है.

मामले के निर्णयों और नीति सलाहकार राय पर लौटें