मॉस्को में आतंकवादी हमले का फ़ुटेज
19 नवंबर 2024
बोर्ड ने Facebook से ऐसी तीन पोस्ट को हटाने के Meta के फ़ैसले को पलट दिया जिनमें मॉस्को में मार्च 2024 के आतंकवादी हमले का फ़ुटेज दिखाया गया था. बोर्ड ने “परेशान करने वाले के रूप में चिह्नित” चेतावनी स्क्रीन के साथ कंटेंट को रीस्टोर करने के लिए कहा.
उन पोस्ट से पीड़ितों सहित चिह्नित हमले के पल को दिखाने के कारण Meta के नियमों का उल्लंघन तो हुआ, लेकिन उन्हें हटाना, कंपनी की मानवाधिकार से जुड़ी ज़िम्मेदारियों के अनुरूप नहीं था. उन पोस्ट, जिनमें दुनियाभर के अखबारों मे पहले पन्ने पर छपी घटना की चर्चा की गई थी, का अत्यधिक जनहित महत्व था और बोर्ड के बहुसंख्य सदस्यों के अनुसार खबरों में रहने से जुड़ी छूट के तहत उनकी रक्षा की जानी चाहिए. रूस जैसे मीडिया पर प्रतिबंध वाले देश में, सोशल मीडिया पर ऐसे कंटेंट को देखने की सुविधा और भी ज़्यादा महत्वपूर्ण है. हर पोस्ट में स्पष्ट भाषा में हमले की निंदा की गई है, पीड़ितों के साथ एकजुटता और उनके लिए चिंता दिखाई गई है और उनसे कट्टरता या उकसावे का कोई जोखिम नहीं है.
इस बात के निराधार डर से कि इससे कट्टरता को बढ़ावा मिल सकता है, सार्वजनिक चिंता के महत्वपूर्ण मामलों को दबाना, स्वतंत्र अभिव्यक्ति के प्रति Meta की ज़िम्मेदारियों के अनुरूप नहीं है. न्यूज़ रिपोर्टिंग करने, निंदा करने और जागरूकता फैलाने के लिए शेयर किए जाने पर Meta को हमलों के पलों को दिखाने वाली किसी चिह्नित घटना, जिसमें पीड़ित दिखाई दे रहे हों पर उन्हें पहचाना न जा सके, की थर्ड पार्टी इमेजरी को “परेशान करने वाले के रूप में चिह्नित” चेतावनी स्क्रीन के साथ परमिशन देनी चाहिए.
केस की जानकारी
बोर्ड ने उन तीन केसों का साथ में रिव्यू किया जिनमें मॉस्को में एक कंसर्ट स्थल और रिटेल कॉम्पलैक्स पर 22 मार्च, 2024 को हुए आतंकवादी हमले के तुरंत बाद अलग-अलग यूज़र्स द्वारा Facebook पर पोस्ट किए गए कंटेंट की चर्चा की गई थी.
पहले केस में रिटेल कॉम्पलैक्स के भीतर हुए हमले का एक हिस्सा दिखाया गया था. इसे वहाँ से गुज़र रहे किसी व्यक्ति द्वारा बनाया गया लगता है. उसमें हमलावर और लोग दिखाई दे रहे थे लेकिन उन्हें आसानी से पहचाना नहीं जा सकता था. बिल्डिंग से बाहर निकल रहे अन्य लोगों को पहचाना जा सकता था. कैप्शन में यह पूछा गया कि रूस में क्या हो रहा है और प्रभावित लोगों के लिए प्रार्थना की गई.
दूसरे केस में उसी फ़ुटेज की एक छोटी क्लिप दिखाई गई थी. साथ दिए गए कैप्शन में दर्शकों को कंटेंट के बारे में चेतावनी दी गई थी और कहा गया था कि दुनिया में आतंकवाद के लिए कोई जगह नहीं है.
तीसरे केस में एक Facebook ग्रुप पर एडमिनिस्ट्रेटर द्वारा शेयर की गई पोस्ट शामिल थी. ग्रुप के डिस्क्रिप्शन में फ़्रांस के राष्ट्रपति पद के उम्मीदवार एरिक ज़ेमोर के लिए समर्थन व्यक्त किया गया है. पोस्ट में हमले की स्टिल फ़ोटो थी जिसे शायद उसी वीडियो से लिया गया था. फ़ोटो में बंदूकधारी हमलावर और पीड़ित लोग दिखाई दे रहे थे. इसके अलावा, रिटेल कॉम्पलैक्स में लगी आग का एक शॉर्ट वीडियो था जिसे पास ही ड्राइव कर रहे किसी व्यक्ति द्वारा बनाया गया था. कैप्शन में कहा गया था कि यूक्रेन के अनुसार हमले में उसका कोई हाथ नहीं है, लेकिन इस बात की ओर इशारा भी किया कि किसी ने भी इसकी ज़िम्मेदारी नहीं ली है. कैप्शन में रूस के लोगों के लिए समर्थन का कथन भी शामिल था.
Meta ने अपनी खतरनाक संगठनों और लोगों से जुड़ी पॉलिसी के उल्लंघन के कारण तीनों पोस्ट को हटा दिया. यह पॉलिसी थर्ड पार्टी की ऐसी फ़ोटो या वीडियो को प्रतिबंधित करती है, जिसमें पीड़ित लोगों पर आतंकवादी हमला होते हुए दिखाया जाता है. मॉस्को में जिस दिन हमला हुआ था, उसी दिन से Meta ने इसे आतंकवादी हमले के रूप में चिह्नित किया है. Meta के अनुसार, पहले दो केसों में शेयर किए गए वीडियो को पहले ही एक अन्य यूज़र द्वारा पोस्ट किया जा चुका था और फिर उसी दिन पहले अतिरिक्त रिव्यू के लिए कंपनी की पॉलिसी या विषयवस्तु विशेषज्ञों को एस्केलेट किया गया था. उस रिव्यू के बाद, Meta ने वीडियो को हटाने का फ़ैसला किया और उसे मीडिया मैचिंग सर्विस (MMS) बैंक में जोड़ दिया. MMS बैंक ने बाद में पाया कि पहले दो केसों का कंटेंट, बैंक में मौजूद वीडियो से मैच हुआ. वीडियो को हटाने के लिए टैग करके उसे अपने आप हटा दिया गया. तीसरे केस मेंल ह्यूमन रिव्यू के बाद Meta ने कंटेंट को हटाया था.
हमला 22 मार्च, 2024 को मॉस्को के क्रोकस सिटी हॉल में हुआ था जिसे कम से कम 143 लोगों की जान चली गई. इस्लामिक स्टेट के एक सहयोगी ISIS-K ने हमले के ठीक बाद उसकी ज़िम्मेदारी ली. बोर्ड ने जिन विशेषज्ञों से परामर्श किया, उनके अनुसार, रूस के करोड़ों लोगों ने सरकारी मीडियो चैनलों और सोशल मीडिया प्लेटफ़ॉर्म पर हमला का वीडियो देखा. रूस के राष्ट्रपति व्लादिमीर पुतिन ने दावा किया कि हमले के तार यूक्रेन से जुड़े हैं और इसे पश्चिमी इंटेलिजेंस का सपोर्ट प्राप्त था, लेकिन यूक्रेन ने इसमें शामिल होने से इंकार कर दिया.
मुख्य निष्कर्ष
भले ही पोस्ट में हमलों की रिपोर्ट की गई थी, उनके बारे में जागरूकता फैलाई गई थी या उनकी निंदा की गई थी, खतरनाक संगठनों और लोगों से जुड़ी पॉलिसी के तहत Meta “थर्ड पार्टी की उन फ़ोटो और वीडियो पर ये छूट लागू नहीं करता जिनमें [चिह्नित] हमलों के पल और पीड़ित दिखाई दे रहे हों.” बोर्ड को यह स्पष्ट है कि तीनों वीडियो में Meta के नियमों का उल्लंघन होता है.
हालाँकि, बोर्ड के बहुसंख्य सदस्यों ने पाया कि इस कंटेंट को हटाना Meta की मानवाधिकारों से जुड़ी ज़िम्मेदारियों के अनुरूप नहीं था और कंटेंट को खबरों में रहने लायक होने की छूट देते हुए उसकी रक्षा की जानी चाहिए थी. तीनों पोस्ट में सार्वजनिक चर्चा की एक महत्वपूर्ण विषयवस्तु थी जो एक ऐसी घटना से संबंधित थी जिसने पूरी दुनिया में सुर्खियाँ बटोरी. पोस्ट से कट्टरता या उकसावे का कोई स्पष्ट जोखिम नहीं था. हर पोस्ट में हमले की स्पष्ट शब्दों में निंदा की गई थी, पीड़ितों से एकजुटता या उनके लिए चिंता दिखाई गई थी और लोगों को हमले के बारे में सूचित करना चाहा गया था. रूस में मीडिया की आज़ादी पर प्रतिबंध और पीड़ितों की स्पष्ट पहचान न होने के तथ्य को देखते हुए, इससे इस बात को बल मिलता है कि इन पोस्ट को सार्वजनिक चर्चा की दिशा में ले जाया जाना चाहिए.
इस बात के निराधार डर से कि इससे कट्टरता को बढ़ावा मिल सकता है, सार्वजनिक चिंता के महत्वपूर्ण मामलों से जुड़े कंटेंट को दबाना, स्वतंत्र अभिव्यक्ति के प्रति Meta की ज़िम्मेदारियों के अनुरूप नहीं है. यह बात इसलिए ज़्यादा महत्वपूर्ण थी क्योंकि वीडियो को लाखों लोगों द्वारा देखा गया था और ऐसे आरोप लगाए गए थे कि हमले में कुछ हद तक यूक्रेन का हाथ है. बोर्ड ने संकट के समय में जानकारी की ऐक्सेस बनाए रखने के महत्व को नोट किया, खास तौर पर रूस में जहाँ लोग जानकारी पाने और अंतरराष्ट्रीय ऑडियंस के बीच जागरूकता फैलाने के लिए सोशल मीडिया पर निर्भर हैं.
कुछ परिस्थितियों में पीड़ितों की पहचान उजागर करने वाले कंटेंट को हटाना आवश्यक और आनुपातिक होता है (जैसे सशस्त्र संघर्ष में जब पीड़ित युद्धबंदी होते हैं), लेकिन इन केसों में पीड़ितों को आसानी से पहचाना नहीं जा सकता, इसलिए उम्र संबंधी चेतावनी स्क्रीन लगाते हुए पोस्ट को रीस्टोर करना Meta की मानवाधिकार से जुड़ी ज़िम्मेदारियों का बेहतर पालन होगा. इसलिए Meta को अपनी पॉलिसी में बदलाव करके उसमें थर्ड पार्टी की ऐसी फ़ोटो और वीडियो को न्यूज़ रिपोर्टिंग करने, निंदा करने या जागरूकता फैलाने के संदर्भ में परमिशन देनी चाहिए जिनमें पीड़ितों को देखा तो जा सकता हो लेकिन उन्हें निजी रूप से पहचाना न जा सकता हो.
बोर्ड के कुछ सदस्य इस बात से सहमत नहीं हैं और वे कंटेंट को Facebook से हटाने के Meta के फ़ैसले को बनाए रखना चाहते हैं. बोर्ड के इन कुछ सदस्यों के अनुसार, फ़ुटेज की ग्राफ़िक प्रकृति, हमले के पलों और दिखाई दे रहे पीड़ितों की मृत्यु के दृश्यों के कारण पीड़ितों और उनके परिवारों की गरिमा के लिए उन्हें हटाना ज़रूरी है.
इसके अलावा, बोर्ड ने पाया कि खतरनाक संगठनों और लोगों से जुड़ी पॉलिसी के तहत उल्लंघन करने वाली हिंसक घटनाओं के फ़ुटेज से जुड़ा नियम, यूज़र्स के लिए भ्रम की स्थिति बनाता है. “हम इस कंटेंट को हटा देते हैं” सेक्शन बताता है कि निंदा करने और न्यूज़ रिपोर्टिंग करने वाले कंटेंट की परमिशन है, लेकिन अन्य सेक्शन में कहा गया है कि अपराधियों द्वारा ली गई फ़ोटो और वीडियो और हमले के समय पीड़ितों को दिखाने वाली थर्ड पार्टी फ़ोटो और वीडियो प्रतिबंधित हैं और उसमें यह स्पष्ट रूप से नहीं बताया गया है कि Meta ऐसे कंटेंट को तब भी हटा देगा जब उन्हें हमलों की निंदा करने या उनके बारे में जागरूकता फैलाने के लिए उपयोग किया गया हो.
ओवरसाइट बोर्ड का फ़ैसला
ओवरसाइट बोर्ड ने तीनों पोस्ट को हटाने के Meta के फ़ैसले को पलट दिया और कंटेंट को “परेशान करने वाला” की चेतावनी स्क्रीन के साथ रीस्टोर करने के लिए कहा.
बोर्ड ने Meta को सुझाव भी दिया कि वह:
- न्यूज़ रिपोर्टिंग करने, निंदा करने और जागरूकता फैलाने के संदर्भ में शेयर किए जाने पर हमलों के पलों को दिखाने वाली किसी चिह्नित घटना, जिसमें पीड़ित दिखाई दे रहे हों पर उन्हें निजी रूप से पहचाना न जा सके, की थर्ड पार्टी इमेजरी को “परेशान करने वाले के रूप में चिह्नित” चेतावनी स्क्रीन के साथ परमिशन दे.
- खतरनाक संगठनों और लोगों से जुड़े कम्युनिटी स्टैंडर्ड के “हम इस कंटेंट को हटा देते हैं” सेक्शन में चिह्नित हिंसक घटनाओं के बारे में एक नियम शामिल करे. चिह्नित घटनाओं को दिखाने वाले कंटेंट से Meta कैसे निपटता है, इसकी व्याख्या को पॉलिसी बनाने के कारण से निकालकर इस सेक्शन में शामिल करे.
अधिक जानकारी के लिए
To read public comments for this case, click here.