नए केसेज़, इस बात की पड़ताल के लिए कि आतंकवादी हमलों को दर्शाने वाले कंटेंट को कैसे नियंत्रित किया जाना चाहिए

आज, बोर्ड विचार करने के लिए तीन नए केसेज़ की घोषणा कर रहा है। इसके तहत हम लोगों और संगठनों को, नीचे दिए गए बटन का उपयोग करके पब्लिक कमेंट सबमिट करने के लिए आमंत्रित कर रहे हैं।

केस चयन

चूँकि हम हर अपील की सुनवाई नहीं कर सकते हैं, इसलिए बोर्ड उन केसेज़ को प्राथमिकता देता है जो दुनिया भर के बहुत से यूज़र को प्रभावित करने की संभावना रखते हैं, जो सार्वजनिक चर्चा के लिए विशिष्ट महत्व रखता है या जो Meta की नीतियों के बारे में महत्वपूर्ण प्रश्न उठाते हैं।

आज हम जिन केसेज़ की घोषणा कर रहे हैं वे हैं:

Footage of Moscow Terrorist Attack  

2024-038-FB-UA, 2024-039-FB-UA, 2024-040-FB-UA

Facebook पर कंटेंट को रिस्टोर करने को लेकर यूज़र की अपीलें

नीचे दिए गए बटन का उपयोग करके पब्लिक कमेंट सबमिट करें

इस घोषणा को रूसी भाषा में पढ़ने के लिए, यहां क्लिक करें।

Чтобы прочитать это заявление на русском языке, нажмите здесь.

ये तीनों केसेज़, Meta द्वारा Facebook से कंटेंट हटाने संबंधी फ़ैसलों से जुड़े हैं, जिन्हें ओवरसाइट बोर्ड एक साथ हल करने का इरादा रखता है।

22 मार्च, 2024 को मॉस्को में एक कॉन्सर्ट स्थल और शॉपिंग सेंटर पर हुए आतंकवादी हमले के तुरंत बाद Facebook पर विभिन्न यूज़र्स द्वारा तीन पोस्ट साझा की गईं। प्रत्येक में हमले की तस्वीरें थीं। Meta ने तीनों पोस्ट हटाने का फ़ैसला किया।

पहले केस में, एक Facebook यूज़र ने एक छोटा वीडियो क्लिप पोस्ट किया, जिसके साथ अंग्रेज़ी में एक कैप्शन था। इस वीडियो में शॉपिंग सेंटर के अंदर से हमले का कुछ अंश दिखाया गया है, तथा ऐसा प्रतीत होता है कि यह फ़ुटेज किसी प्रत्यक्षदर्शी द्वारा लिया गया है। वीडियो में हथियारबंद लोगों को निहत्थे लोगों पर नजदीक से गोलियां चलाते हुए दिखाया गया है, जहां हमले के कुछ पीड़ित जमीन पर बैठे हैं और अन्य इमारत से भाग रहे हैं। यह फ़ुटेज हाई रिज़ोल्यूशन का नहीं है; हमलावर और जिन्हें गोली लगी है, वे लोग दिखाई तो दे रहे हैं, लेकिन उन्हें आसानी से पहचाना नहीं जा सकता, जबकि इमारत से बाहर निकल रहे अन्य लोगों को पहचाना जा सकता है। ऑडियो में, गोली चलने की आवाज़ के साथ लोगों की चीख सुनाई देती है। कैप्शन में पूछा गया है कि देश में क्या हो रहा है और प्रभावित लोगों के लिए प्रार्थना भी की गई है। जब Meta ने पोस्ट को हटाया, तब इसे 50 से कम व्यूज़ मिले थे।

दूसरे केस में, एक भिन्न Facebook यूज़र ने समान क्लिप का एक छोटा वीडियो क्लिप पोस्ट किया है, जिसके साथ अंग्रेज़ी में एक कैप्शन भी है। कैप्शन में दर्शकों को वीडियो के कंटेंट के बारे में चेतावनी दी गई थी, जिसमें कहा गया था कि दुनिया में आतंकवाद के लिए कोई जगह नहीं है, साथ ही इसमें #terrorist हैशटैग भी जोड़ा गया था। जब Meta ने पोस्ट को हटाया, तब इसे 50 से कम व्यूज़ मिले थे।

तीसरा केस, ग्रुप पेज पर इसके व्‍यवस्‍थापकों में से किसी एक के द्वारा साझा की गई एक पोस्ट को लेकर है। ग्रुप के विवरण से पता चलता है कि यह फ़्रांसीसी राष्ट्रपति पद के पूर्व उम्मीदवार एरिक ज़ेमोर का समर्थन करता है। पोस्ट में हमले का एक तस्वीर भी शामिल था, जो संभवतः उसी वीडियो से लिया गया था, जिसमें सशस्त्र बंदूकधारी और पीड़ित दिखाई दे रहे थे। इसके अतिरिक्त, एक छोटा वीडियो भी है, जिसे किसी व्यक्ति ने उस शॉपिंग सेंटर के पास से गुजरते हुए शूट किया है, जिसमें आग लगी हुई है। फ़्रांसीसी कैप्शन में हमले के विवरण, जैसे कि मरने वालों की सूचित संख्या, के साथ-साथ "अलर्ट" शब्द भी शामिल था। कैप्शन में यह भी कहा गया कि यूक्रेन ने कहा है कि उसका इस हमले से कोई लेना-देना नहीं है, साथ ही बताया गया कि किसी ने भी हमले की ज़िम्मेदारी नहीं ली थी। कैप्शन के अंत में पेरिस में बाटाक्लान आतंकवादी हमले की तुलना और रूसी लोगों के प्रति समर्थन व्यक्त किया गया है। जब Meta ने पोस्ट को हटाया, तब इसे करीब 6,000 व्यूज़ मिले थे।

कंपनी ने अपने खतरनाक लोग और संगठन संबंधी कम्युनिटी स्टैंडर्ड के तहत तीनों पोस्ट हटा दीं, जो दिखाई देने वाले पीड़ितों पर आतंकवादी हमले के क्षणों की तस्वीरों को दर्शाने वाली तृतीय-पक्ष छवियों को साझा करने पर प्रतिबंध लगाता है। Meta ने बोर्ड को बताया कि "दिखाई देने वाले पीड़ितों पर [a] हमले के क्षणों की तस्वीरों को तुरंत हटाने से इसके फैलाव और कॉपीकैट हमलों के जोखिम को कम करने में मदद मिलती है, साथ ही अपराधी के दुष्प्रचार को फैलने से भी रोका जा सकता है।" कंपनी ने कहा कि इस तरह के कंटेंट को हटाने से पीड़ितों और उनके परिवारों की गरिमा की भी रक्षा होती है, जो शायद फ़ुटेज को प्रकाशित नहीं करना चाहते हों। हालांकि, Meta ने माना है कि कंटेंट को हटाने से ऐसे कंटेंट पर ज़रूरत से ज़्यादा एन्फ़ोर्समेंट का खतरा हो सकता है, जो आतंकवादी हमलों की तटस्थ रूप से चर्चा, निंदा करता है या जागरूकता को बढ़ाता है। कंपनी ने कहा कि हालांकि वह सीमित केसेज़ में ख़बरों में रहने लायक अनुमति के तहत अपने प्लेटफ़ॉर्म पर अन्यथा उल्लंघनकारी कंटेंट को बरकरार रख सकती है, लेकिन यह अनुमति हिंसक घटनाओं के वीडियो फ़ुटेज पर शायद ही कभी लागू होती है।

Meta ने 22 मार्च 2024 को मास्को हमले को एक आतंकवादी हमला घोषित किया, हालांकि ये घोषणाएं आमतौर पर सार्वजनिक नहीं की जाती हैं। पहले और दूसरे केसेज़ का कंटेंट स्वचालित रूप से हटा दिया गया, क्योंकि Meta के विषय विशेषज्ञों ने उसी वीडियो के एक अन्य उदाहरण का उल्लंघन करने वाला मूल्यांकन किया था, और इसे मीडिया मैचिंग सर्विस (MMS) बैंक में जोड़ दिया था। Meta ने इन निष्कासनों पर स्ट्राइक लागू नहीं किया। तीसरे केस में, मानवीय रिव्यू के बाद कंटेंट को हटा दिया गया और Meta ने एक स्ट्राइक लागू की, जिसके परिणामस्वरूप फीचर्स पर सीमाएं लागू हो गईं। इससे यूज़र को प्लेटफ़ॉर्म पर कंटेंट बनाने, Messenger रूम बनाने या उसमें शामिल होने तथा विज्ञापन देने या लाइव वीडियो बनाने से रोका गया।

सभी तीनों केसेज़ में यूज़र्स ने Meta से अपील की। मानवीय रिव्यूअर्स ने प्रत्येक पोस्ट को उल्लंघनकारी पाया। बोर्ड द्वारा इन केसेज़ को रिव्यू के लिए चुनने के बाद, Meta ने पुष्टि की कि तीनों पोस्ट हटाने के उसके फ़ैसले सही थे, लेकिन तीसरे केस में स्ट्राइक को हटा दिया।

बोर्ड से की गई अपनी अपील में तीनों यूज़र्स ने, वास्तविकता में होने वाली घटनाओं के बारे में दूसरों को सूचित करने के महत्व पर बल दिया तथा इस बात पर ज़ोर दिया कि उनकी पोस्ट का उद्देश्य हिंसा या घृणा को महिमामंडित करना नहीं था।  

बोर्ड ने इन केसेज़ का चयन यह विचार करने के लिए किया कि Meta अपने प्लेटफ़ॉर्म पर आतंकवादी हमले की तस्वीरों को कैसे मॉडरेट करे। यह केस, बोर्ड की संकट और टकराव की स्थितियों की कार्यनीतिक प्राथमिकताएँ के तहत आता है।

बोर्ड उन पब्लिक कमेंट की सराहना करेगा, जो इनको संबोधित करते हैं:

  • आतंकवादी हमले के फ़ुटेज के ऑनलाइन प्रसार से होने वाले नुकसानों के साथ-साथ इस प्रसार को सीमित करने के प्रयासों की प्रभावशीलता पर अनुसंधान।
  • क्या Meta को मानवाधिकार से संबंधित अपने दायित्वों को ध्यान में रखते हुए, अपराधियों द्वारा लिए गए और/या साझा किए गए आतंकवादी हमलों के वीडियो फ़ुटेज को ऐसी घटनाओं के तीसरे पक्ष के फ़ुटेज से अलग करना चाहिए।  
  • मीडिया पर अंकुश वाले देशों में आतंकवादी हमले की तस्वीरों पर प्रतिबंध लगाने का प्रभाव, विशेष रूप से जहां सरकार हमलों के बारे में गलत जानकारी को बढ़ावा दे सकती है।
  • आतंकवादी कंटेंट को तेजी से हटाने वाले प्लेटफ़ॉर्म के लिए नियामक प्रोत्साहन, और आतंकवादी हमलों के बारे में भाषण पर विनियमन का प्रभाव।

अपने फैसले के हिस्से के रूप में, बोर्ड Meta को नीतिगत सुझाव जारी कर सकता है। हालाँकि ये सुझाव गैर-बाध्यकारी हैं, Meta को 60 दिनों के भीतर उन पर प्रतिक्रिया देनी चाहिए. इस प्रकार, बोर्ड इस केस के लिए प्रासंगिक सुझावों का प्रस्ताव करने वाले पब्लिक कमेंट का स्वागत करता है।

पब्लिक कमेंट

अगर आपको या आपके संगठन को लगता है कि आप अहम दृष्टिकोण में अपना योगदान दे सकते हैं, जो हमारी आज घोषित केस पर फ़ैसले तक पहुंचने में मदद कर सकता है, तो आप नीचे के बटन का उपयोग करके, अपना योगदान सबमिट कर सकते/सकती हैं। कृपया ध्यान दें कि पब्लिक कमेंट बिना किसी नाम के सबमिट की जा सकती हैं। पब्लिक कमेंट विंडो 14 दिनों के लिए खुली है, जो गुरुवार 25 जुलाई को प्रशांत मानक समय (PST) 23:59 बजे बंद होगी।

आगे क्या होगा

अगले कुछ हफ़्तों में, बोर्ड मेंबर इन केसेज़ पर विचार-विमर्श करेंगे। जब वे अपने निर्णय पर पहुंच जाएंगे, तो हम इसे निर्णय पेज पर पोस्ट करेंगे।

समाचार पर लौटें