पलट जाना
नाइजीरिया के चर्च पर हुए हमले के बाद का वीडियो
बोर्ड ने Instagram के एक वीडियो को हटाने का Meta का फ़ैसला पलट दिया, जिसमें नाइजीरिया पर हुए आतंकी हमले के बाद के हालातों को दिखाया गया था.
केस का सारांश
बोर्ड ने Instagram के एक वीडियो को हटाने का Meta का फ़ैसला बदल दिया, जिसमें नाइजीरिया पर हुए आतंकी हमले के बाद के हालातों को दिखाया गया था. बोर्ड ने पाया कि चेतावनी स्क्रीन के साथ पोस्ट को रीस्टोर करने से पीड़ितों की निजता सुरक्षित रहती है, साथ ही ऐसे ईवेंट की चर्चा हो पाती है जिसे कुछ शासन दबाने की कोशिश कर सकते हैं.
केस की जानकारी
5 जून 2022 को, नाइजीरिया के एक Instagram यूज़र ने ज़मीन पर पड़ीं शिथिल, खून से लथपथ लाशों वाला वीडियो पोस्ट किया. यह देखने में दक्षिणी नाइजीरिया के चर्च पर हुए आतंकी हमले के बाद के हालात जैसा लग रहा था, जिसमें 40 लोगों मारे गए थे और कई लोगों को घायल हुए थे. यह कंटेंट हमले वाले दिन ही पोस्ट किया गया था. पोस्ट के कमेंट में नाइजीरिया के लोगों की सुरक्षा को लेकर प्रार्थनाएँ और कथन थे.
Meta के ऑटोमेटेड सिस्टम ने कंटेंट का रिव्यू किया और एक चेतावनी स्क्रीन लगा दी. हालाँकि, यूज़र को इसके बारे में नहीं बताया गया, क्योंकि Instagram यूज़र को चेतावनी स्क्रीन लगाए जाने पर नोटिफ़िकेशन नहीं मिलते हैं.
यूज़र ने बाद में वीडियो में एक कैप्शन जोड़ा. इस कैप्शन में घटना को “दुखद” बताया गया और कई हैशटैग का उपयोग किया गय, जिसमें फ़ायरआर्म कलेक्टर, बंदूक चलाने की आवाज़ और लाइव एक्शन गेम “airsoft” (जहाँ टीमें नकली हथियारों से प्रतिस्पर्धा करती हैं) के संदर्भ थे. यूज़र ने ऐसे ही हैशटैग का उपयोग कई दूसरी पोस्ट में भी किया था.
इसके ठीक बाद, Meta के मीडिया मैचिंग सर्विस बैंक में से एक, “एस्केलेशन बैंक” ने वीडियो की पहचान की और उसे हटा दिया. मीडिया मैचिंग सर्विस बैंक, यूज़र की पोस्ट को ऑटोमैटिक तरीके से ऐसे कंटेंट से मैच कर सकता है, जिसे पहले उल्लंघन करने वाला माना गया हो. “एस्केलेशन बैंक” के कंटेंट को Meta की विशेषज्ञ आंतरिक टीमों द्वारा उल्लंघन करने वाला माना गया है. किसी भी मैचिंग कंटेंट को पहचान कर तुरंत हटा दिया जाता है.
यूज़र ने Meta से इस फ़ैसले को लेकर अपील की और ह्यूमन रिव्यूअर ने हटाए जाने को सही ठहराया. इसके बाद उस यूज़र ने बोर्ड के सामने अपनी अपील पेश की.
जब बोर्ड ने केस स्वीकार किया, तो Meta ने “एस्केलेशन बैंक” के कंटेंट का रिव्यू किया और उसे उल्लंघन नहीं करने वाला पाया और फिर बैंक से हटा दिया. हालाँकि, इस केस में उसने पोस्ट को हटाने का अपना फ़ैसला यह कहते हुए बनाए रखा, कि हैशटैग को “हिंसा की प्रशंसा करने वाला और पीड़ितों की तकलीफ़ को कम दिखाने वाला” माना जा सकता है. Meta ने पाया कि इससे कई पॉलिसी का उल्लंघन होता है, जिसमें हिंसक और आपत्तिजनक कंटेंट शामिल है, जिसके तहत दूसरे की परेशानी में मज़ा लेने वाली बातों की परमिशन नहीं है.
मुख्य निष्कर्ष
बोर्ड के अधिकतर मेंबर्स ने पाया कि इस कंटेंट को Instagram पर रीस्टोर करना, Meta के कम्युनिटी स्टैंडर्ड, वैल्यू और मानवाधिकार से जुड़ी ज़िम्मेदारियों के अनुसार है.
नाइजीरिया में लगातार आतंकी हमले हो रहे हैं और नाइजीरिया की सरकार ने कुछ हमलों की जानकारी को छिपाकर रखा है, हालाँकि 5 जून वाले हमले के मामले में ऐसा नहीं लगता. बोर्ड ने माना कि इस तरह के संदर्भों में, अभिव्यक्ति की स्वतंत्रता ख़ास तौर पर मायने रखती है.
जब हैशटैग पर ध्यान नहीं दिया जा रहा हो, उस स्थिति में बोर्ड के सभी मेंबर्स ने माना कि वीडियो पर चेतावनी स्क्रीन लगाई जाए. इससे पीड़ितों की निजता सुरक्षित रहेगी, जिनमें से कुछ के चेहरे दिखाई दे रहे हैं और साथ ही अभिव्यक्ति की स्वतंत्रता भी बनी रहेगी. बोर्ड इस वीडियो को “रूसी कविता” वाले केस की फ़ोटो से अलग मानता है, जो काफ़ी कम आपत्तिजनक था और उसमें बोर्ड को चेतावनी स्क्रीन की ज़रूरत नहीं लगी थी. बोर्ड इसे “सूडान के आपत्तिजनक वीडियो" की फ़ुटेज से भी अलग मानता है, जो बहुत ज़्यादा आपत्तिजनक था, जहाँ बोर्ड Meta के फ़ैसले से सहमत था कि कंटेंट को “ख़बर में रहने लायक होने की छूट” जिसके तहत अन्यथा उल्लंघन करने वाले कंटेंट की परमिशन दी जाती है, उसे लागू करके चेतावनी स्क्रीन के साथ कंटेंट को रीस्टोर किया जाए.
हैशटैग को ध्यान में रखने पर, बोर्ड के अधिकतर मेंबर्स मानते हैं कि कंटेंट को रीस्टोर किया जाना चाहिए, चूँकि उससे जागरूकता बढ़ रही है और उसमें दूसरे की परेशानी में मज़ा लेने की बात नहीं है. आम तौर पर हैशटैग का उपयोग कम्युनिटी में पोस्ट को प्रमोट करने के लिए किया जाता है. यह Meta के एल्गोरिद्म से आगे बढ़ता है, इसलिए कंपनी को इनके दुरूपयोग से सावधान रहना चाहिए. अधिकतर मेंबर्स ने देखा कि Meta ने इस पर ध्यान नहीं दिया है, कि इन हैशटैग का उपयोग सांकेतिक व्यंग्य के तौर पर किया गया है. ऐसा लगता है कि पोस्ट पर कमेंट करने वाले यूज़र्स को यह समझ आ रहा था कि पोस्ट जागरूकता फैलाने के लिए थी और पोस्ट करने वाले व्यक्ति के रेस्पॉन्स पीड़ितों के प्रति सहानुभूति वाले थे.
बोर्ड के कुछ मेंबर्स को फ़ुटेज में शूटिंग वाले हैशटैग जोड़ना दूसरों का मज़ाक उड़ाने जैसा लगा और इससे हमले में बचे हुए लोग या पीड़ितों के परिवार को सदमा पहुँच सकता है. चेतावनी स्क्रीन लगाने से यह प्रभाव कम नहीं होगा. नाइजीरिया में आतंकी हमले के संदर्भ को देखते हुए, Meta का सावधानी बरतना जायज़ है, ख़ासकर तब जब पीड़ितों को पहचाना जा सकता है. बोर्ड के कुछ मेंबर्स का मानना है कि पोस्ट को रीस्टोर नहीं किया जाना चाहिए.
बोर्ड का मानना है कि हिंसा और आपत्तिजनक कंटेंट पॉलिसी को स्पष्ट किया जाना चाहिए. पॉलिसी में “दूसरे की परेशानी में मज़ा लेने” की परमिशन नहीं है, फिर भी आंतरिक मार्गदर्शन में मॉडरेटर्स के लिए इस बारे में दी गई परिभाषा इसके सामान्य उपयोग से काफ़ी व्यापक है.
बोर्ड ने देखा कि कंटेंट को मूल रूप से इसलिए हटाया गया था क्योंकि यह ऐसे वीडियो से मैच हो रहा था जिसे गलती से एस्केलेशन बैंक में जोड़ दिया गया था. संकट के समय के तुरंत बाद के हालातों के चलते, Meta संभवतया उल्लंघन करने वाले कंटेंट को अपने प्लेटफ़ॉर्म पर फैलने से रोकने की कोशिश कर रहा था. हालाँकि, अब कंपनी को यह सुनिश्चित करना चाहिए कि गलती से हटाया गया कंटेंट रीस्टोर किया जाए और इसके परिणाम स्वरूप अकाउंट पर लागू की गई स्ट्राइक भी हटाई जाए.
ओवरसाइट बोर्ड का फ़ैसला
ओवरसाइट बोर्ड ने पोस्ट को हटाने के Meta के फ़ैसले को बदल दिया और बोर्ड ने माना कि कंटेंट को “परेशान करने वाला कंटेंट” की चेतावनी स्क्रीन लगाकर प्लेटफ़ॉर्म पर रीस्टोर किया जाना चाहिए.
बोर्ड ने Meta को सुझाव दिया कि वह:
- हिंसक और आपत्तिजनक कंटेंट पॉलिसी के बारे में दी गई लोगों को दी गई व्याख्या का रिव्यू करे ताकि वह मॉडरेटर्स को दिए गए आंतरिक मार्गदर्शन के अनुसार हो.
- Instagram यूज़र्स के कंटेंट पर चेतावनी स्क्रीन लगाए जाने पर उन्हें इस बात की सूचना दे और ऐसा करने के पीछे मौजूद पॉलिसी के ख़ास कारण को भी बताए.
*केस के सारांश से केस का ओवरव्यू पता चलता है और आगे के किसी फ़ैसले के लिए इसको आधार नहीं बनाया जा सकता है.
केस का पूरा फ़ैसला
1. फ़ैसले का सारांश
Meta ने एक Instagram पोस्ट को हटा दिया जिसमें कैप्शन के साथ एक वीडियो था. वीडियो में नाइजीरिया के चर्च में हुए हमले के बाद के हालातों को दिखाया गया था और इसे कंपनी की हिंसक और आपत्तिजनक कंटेंट, धमकी और उत्पीड़न और खतरनाक लोग और संगठन की पॉलिसी का उल्लंघन करने की वजह से हटाया गया. बोर्ड के अधिकतर मेंबर्स ने माना कि कंटेंट को “परेशान करने वाला कंटेंट” की चेतावनी स्क्रीन लगाकर प्लेटफ़ॉर्म पर रीस्टोर किया जाना चाहिए, जिसमें यूज़र्स को वीडियो देखने के लिए क्लिक करना पड़े. बोर्ड के कुछ सदस्य इस बात से सहमत नहीं हैं और वे कंटेंट हटाने के Meta के फ़ैसले को बनाए रखना चाहते हैं.
2. केस का वर्णन और बैकग्राउंड
5 जून 2022 को आतंकियों ने ओवो, दक्षिण नाइजीरिया के एक कैथलिक चर्च पर हमला किया, जिसमें 40 लोग मारे गए और लगभग 90 अन्य लोग घायल हुए. हमले के कुछ ही घंटों में, नाइजीरिया के एक Instagram यूज़र ने अपने पब्लिक अकाउंट पर वीडियो पोस्ट किया जो हमले के बाद के हालातों जैसा दिख रहा है. इसमें चर्च की ज़मीन पर शिथिल, खून से लथपथ लाशें दिख रहीं हैं और कुछ के चेहरे भी दिख रहे हैं. बैकग्राउंड में दिल दहला देने वाली आवाज़ें साफ़ तौर पर सुनी जा सकती थीं, जिसमें लोगों के रोने और चिल्लाने की आवाज़ें भी थीं. वीडियो को पहले बिना कैप्शन के पोस्ट किया गया था. इस पर 50 से भी कम कमेंट थे. जो कमेंट बोर्ड ने देखे उनमें पीड़ितों के लिए प्रार्थना, रोने वाले इमोजी और नाइजीरिया में सुरक्षा को लेकर कथन थे. पोस्ट करने वाले व्यक्ति ने कई कमेंट पर रेस्पॉन्स दिया, जिसमें उनमें व्यक्त भावनाओं के साथ सहानुभूति दिखाई दी.
यूज़र के कंटेंट पोस्ट करने के बाद, इसे Meta के हिंसक और आपत्तिजनक कंटेंट के मीडिया मैचिंग सर्विस बैंक ने पहचाना, जिसमें काफ़ी हद तक ऐसा ही दूसरा वीडियो शामिल था. यह बैंक ऐसे कंटेंट को ऑटोमैटिक तरीके से फ़्लैग करता है, जिसे पहले कभी ह्यूमन रिव्यूअर ने कंपनी के नियमों का उल्लंघन करने वाले वीडियो के तौर पर पहचाना हो. इस केस में, बैंक ने यूज़र के वीडियो को ऑटोमेटेड कंटेंट मॉडरेशन टूल के लिए रेफ़र किया, जिसका नाम क्लासिफ़ायर है. यह टूल इस बात का मूल्यांकन करता है कि कंटेंट के Meta पॉलिसी का उल्लंघन करने की कितनी संभावना है. इस क्लासिफ़ायर ने तय किया कि वीडियो को Instagram पर परमिशन मिलना चाहिए. इसने यह भी तय किया कि कंटेंट में संभवतया हिंसात्मक मृत्यु की फ़ोटो हैं और इसके परिणाम स्वरूप इसने वीडियो पर ऑटोमैटिक तरीके से “परेशान करने वाला कंटेंट” की चेतावनी स्क्रीन को भी लगा दिया, जैसा कि हिंसक और आपत्तिजनक कंटेंट पॉलिसी के तहत ज़रूरी होता है. Meta ने यूज़र को यह नहीं बताया कि वीडियो पर चेतावनी स्क्रीन लगा दी गई है. अगले 48 घंटों में, तीन यूज़र्स ने कंटेंट की रिपोर्ट की, जिसमें मृत्यु और गंभीर घाव दिखाने का कारण शामिल था.
इसी समय, Meta का स्टाफ़ हमले के कारण बनने वाले कंटेंट को पहचानने और उन पर क्या एक्शन लिया जाए, इस पर काम कर रहा था. Meta की पॉलिसी टीम को धार्मिक स्टाफ़ ने हमले के बारे में बताया था और एक अन्य मीडियो मैचिंग सर्विस बैंक, “एस्केलेशन बैंक” में घटना के वीडियो भी जोड़े गए. इस एस्केलेशन बैंक के कंटेंट को Meta की विशेषज्ञ आंतरिक टीमों ने उल्लंघन करने वाला माना है और इससे मैच होने वाले कंटेंट को तुरंत हटा दिया जाता है. घटना के बाद एस्केलेशन बैंक में जोड़े गए वीडियो में मनुष्य के अंदरूनी अंगो को दिखाने वाला फ़ुटेज शामिल था (ऐसा कोई फ़ुटेज इस केस में विचाराधीन वीडियो में नहीं था). Meta की अन्य टीमों को संभवतया समान वीडियो पॉलिसी टीम को रेफ़र करने के लिए आमंत्रित किया गया. पॉलिसी टीम फिर यह तय करेगी कि उन्हें एस्केलेशन बैंक में जोड़ा जाए या नहीं.
हमले के तीन दिन के बाद, Meta ने एस्केलेशन बैंक में एक वीडियो जोड़ा जो इस केस के कंटेंट के लगभग समान ही था. परिणामस्वरूप, Meta के सिस्टम ने मैच के लिए उस वीडियो की तुलना प्लेटफ़ॉर्म पर मौजूद कंटेंट से की. जब पहले के रेफ़रेंस के आधार पर यह रिव्यू चल रहा था, तो यूज़र ने अपनी ओरिजनल पोस्ट एडिट करके वीडियो में अंग्रेज़ी भाषा में कैप्शन जोड़ा. इसमें बताया गया कि चर्च पर हथियारबंद लोगों ने हमला किया, कई लोगों को मार दिया गया और इस घटना को “दुखद” बताया. कैप्शन में कई सारे हैशटैग थे. इनमें से अधिकतर लाइव-एक्शन गेम “airsoft” (जहाँ टीमें खेल में एक-दूसरे को प्लास्टिक प्रोजेक्टाइल शॉट के ज़रिए नकली हथियारों से टैग करने के लिए प्रतिस्पर्धा करती हैं) के बारे में थे. साथ ही, Meta के अनुसार बंदूक चलाने का उल्लेख है जिसका उपयोग बंदूकों की मार्केटिंग करने में भी किया जाता है. अन्य हैशटैग में उन लोगों का रेफ़रेंस था जो बंदूकें और ऐसी ही सामग्री इकट्ठा करते हैं, साथ ही मिलिट्री सिम्युलेशन का भी उल्लेख था.
कैप्शन जोड़ने के कुछ ही देर बाद, एस्केलेशन बैंक की पहले के रेफ़रेंस से रिव्यू की प्रोसेस में यूज़र की पोस्ट को हाल ही में जोड़े गए इसी के जैसे वीडियो के साथ मैच किया गया और इसे प्लेटफ़ॉर्म से हटा दिया गया. यूज़र ने इसके खिलाफ़ अपील की. एक ह्यूमन मॉडरेटर ने कंटेंट का रिव्यू किया और हटाने के फ़ैसले को सही ठहराया. इसके बाद उस यूज़र ने बोर्ड के सामने अपनी अपील पेश की.
इसी दौरान, कंटेंट को लेकर यूज़र्स से मिली तीन रिपोर्ट का रिव्यू नहीं हुआ था और उन्हें बंद कर दिया गया. Meta ने बोर्ड से कहा कि रिपोर्ट को गलती से कम प्राथमिकता वाली कतार में जोड़ दिया गया था.
बोर्ड ने जब इस केस को चुना, तो Meta ने एस्केलेशन बैंक में रखे गए इसके जैसे वीडियो का रिव्यू किया. Meta ने तय किया कि इससे किसी पॉलिसी का उल्लंघन नहीं हुआ था क्योंकि इसमें कोई “दिखाई देने वाले अंदरूनी अंग”, दूसरे की परेशानी में मज़ा लेने वाला कैप्शन नहीं था और इसे बैंक से हटा दिया. हालाँकि, Meta ने इस केस में कंटेंट हटाने के अपने फ़ैसले को यह कहते हुए बनाए रखा कि इवेंट का वर्णन और यूज़र की दुख की अभिव्यक्ति उल्लंघन करने वाली नहीं थी, लेकिन यूज़र ने कैप्शन में जो हैशटैग जोड़े थे, उनसे कई पॉलिसी का उल्लंघन हो रहा था. बोर्ड के सवालों के जवाब में, Meta ने यूज़र की पिछली पोस्ट का विश्लेषण किया और पाया कि उन्होंने Instagram पर अपनी कई हालिया पोस्ट में भी ऐसे ही हैशटैग जोड़े थे.
बोर्ड ने नाइजीरिया में हिंसा और आतंकी हमले की हालिया घटनाओं को प्रासंगिक संदर्भ माना. बोर्ड ने जिन विशेषज्ञों से सलाह ली, उन्होंने कहा कि नाइजीरिया की सरकार ने पहले भी कुछ बार आंतकी हमलों की घरेलू रिपोर्टिंग को दबाया है, लेकिन 5 जून के हमले के बारे में सरकार ने काफ़ी हद तक ऐसा नहीं किया है और इसलिए इस घटना को मीडिया के पुराने माध्यमों के ज़रिए काफ़ी रिपोर्ट किया गया. हमले और इसके पीड़ितों की आपत्तिजनक फ़ोटो सोशल मीडिया प्लेटफ़ॉर्म पर काफ़ी शेयर हुईं, जिसमें Instagram और Facebook शामिल हैं, लेकिन ये मीडिया के पुराने माध्यमों में उतनी ज़्यादा नहीं दिखाई गईं. बोर्ड के सवालों के जवाब में, Meta ने कन्फ़र्म किया कि नाइजीरिया की सरकार ने हमले को लेकर Meta से संपर्क नहीं किया और कंटेंट हटाने की रिक्वेस्ट नहीं की.
3. ओवरसाइट बोर्ड की अथॉरिटी और स्कोप
बोर्ड को उस यूज़र के अपील करने के बाद Meta के फ़ैसले का रिव्यू करने का अधिकार है, जिसका कंटेंट हटा दिया गया था (चार्टर अनुच्छेद 2, सेक्शन 1; उपनियम अनुच्छेद 3, सेक्शन 1).
बोर्ड Meta के फ़ैसले को कायम रख सकता है या उसे बदल सकता है (चार्टर अनुच्छेद 3, सेक्शन 5) और उसका फ़ैसला कंपनी पर बाध्यकारी होता है (चार्टर अनुच्छेद 4). Meta को मिलते-जुलते संदर्भ वाले समान कंटेंट पर अपने फ़ैसले को लागू करने की संभावना का भी आकलन करना चाहिए (चार्टर अनुच्छेद 4). बोर्ड के फ़ैसलों में गैर-बाध्यकारी सलाहों के साथ पॉलिसी से जुड़े सुझाव हो सकते हैं, जिन पर Meta को जवाब देना होगा (चार्टर अनुच्छेद 3, सेक्शन 4; अनुच्छेद 4).
4. अथॉरिटी के सोर्स
ओवरसाइट बोर्ड ने इन अथॉरिटी और स्टैंडर्ड पर विचार किया:
I.ओवरसाइट बोर्ड के फ़ैसले:
- “रूसी कविता” (कैस का फ़ैसला 2022-008-FB-UA): बोर्ड ने संघर्ष वाली स्थितियों में कंटेंट मॉडरेशन से जुड़ी चुनौतियों पर चर्चा की और देखा कि हिंसक और आपत्तिजनक कंटेंट से संबंधित पॉलिसी स्पष्ट नहीं थी.
- “न्यूज़ रिपोर्टिंग में तालिबान का उल्लेख” (केस का फ़ैसला 2022-005-FB-UA): बोर्ड ने चर्चा की कि यूज़र्स आतंकी संस्थाओं की एक्टिविटी के बारे में कैसे कमेंट कर सकते हैं.
- “कोलंबियाई पुलिस कार्टून” (केस का फ़ैसला 2022-004-FB-UA): बोर्ड ने Meta को गलती से मीडिया मैचिंग सर्विस बैंक में जोड़े गए उल्लंघन नहीं करने वाले कंटेंट को हटाने की प्रक्रिया में सुधार करने का सुझाव दिया.
- “सूडान का आपत्तिजनक वीडियो” (केस का फ़ैसला 2022-002-FB-MR): बोर्ड ने हिंसक और आपत्तिजनक कंटेंट से संबंधित पॉलिसी में संशोधन करने और उसे स्पष्ट करने की ज़रूरत पर चर्चा की.
- "रूस में नवालनी के समर्थन में विरोध प्रदर्शन” (केस का फ़ैसला 2021-004-FB-UA): बोर्ड ने धमकी और उत्पीड़न के कम्युनिटी स्टैंडर्ड के वैधानिक लक्ष्य पर चर्चा की.
- “नाज़ी उद्धरण” (केस का फ़ैसला 2020-005-FB-UA): बोर्ड ने इस बारे में चर्चा की कि पोस्ट करने वाले व्यक्ति के दोस्त और फ़ॉलोअर्स कंटेंट पर जिस तरह के कमेंट करते हैं, उनसे उस व्यक्ति के इरादे का पता चल सकता है.
II. Meta की कंटेंट पॉलिसी:
इस केस में Instagram की कम्युनिटी गाइडलाइन और Facebook के कम्युनिटी स्टैंडर्ड शामिल हैं. Meta की तीसरी तिमाही की ट्रांसपेरेंसी रिपोर्ट में बताया गया है कि "Facebook और Instagram की कंटेंट पॉलिसी एक जैसी हैं. इसका मतलब यह है कि अगर कंटेंट को Facebook पर उल्लंघन करने वाला माना जाता है, तो उसे Instagram पर भी उल्लंघन करने वाला माना जाएगा."
Instagram कम्युनिटी गाइडलाइन के अनुसार Meta “तीव्र, आपत्तिजनक हिंसा वाले वीडियो हटा सकता है ताकि यह सुनिश्चित हो कि Instagram सभी के लिए उचित रहे.” यह Facebook के हिंसक और आपत्तिजनक कंटेंट संबंधी कम्युनिटी स्टैंडर्ड से लिंक करता है, जहाँ पॉलिसी बनाने के कारण में बताया गया है कि:
यूज़र्स को परेशान करने वाली फ़ोटो से बचाने के लिए, हम ऐसे कंटेंट को हटा देते हैं जो ख़ास तौर पर हिंसक या आपत्तिजनक हो, जैसे कटे-फटे अंग, अंदरूनी अंग या झुलसे हुए शरीर वाले वीडियो. हम ऐसे कंटेंट को भी हटा देते हैं जिसमें मनुष्यों और पशुओं की पीड़ा दिखाने वाली फ़ोटो पर मज़ा लेने वाली बातें कही गई हों. मानवाधिकार हनन, सशस्त्र संघर्ष और आतंकवादी कृत्य जैसे महत्वपूर्ण मुद्दों पर चर्चा के संदर्भ में, हम आपत्तिजनक कंटेंट की परमिशन देते हैं (कुछ सीमाओं के साथ) ताकि लोग इन स्थितियों की निंदा कर सकें और उनके बारे में जागरूकता फैला सकें.
हिंसक और आपत्तिजनक कंटेंट से जुड़ी पॉलिसी में कहा गया है कि “दुर्घटना या हत्या से किसी व्यक्ति या लोगों की हिंसक मृत्यु दिखाने वाली फ़ोटो” पर परेशान करने वाले कंटेंट की चेतावनी स्क्रीन लगाई जाएगी. नियमों के “पोस्ट नहीं करें” सेक्शन में बताया गया है कि यूज़र्स ऐसी फ़ोटो पर मज़ा लेने वाले कमेंट नहीं कर सकते, जिनके लिए पॉलिसी के तहत चेतावनी स्क्रीन की ज़रूरत होती है. इसमें यह भी कहा गया है कि कंटेंट में “अंदरूनी अंग” दिखाई देने पर भी उसे निकाल दिया जाएगा.
Meta की धमकी और उत्पीड़न से जुड़ी पॉलिसी के कारण में बताया गया है कि इसके तहत कई तरह के कंटेंट को हटाया जाता है “क्योंकि उससे लोग Facebook पर सुरक्षित और सम्मानित महसूस नहीं करते.” विशेष नियमों के टियर 4 के तहत, कंपनी ऐसे कंटेंट की अनुमति नहीं देती जो व्यक्ति विशेष की “मुत्यु या गंभीर चोट की प्रशंसा करे, उसकी खुशियाँ मनाए या मज़ाक उड़ाए”.
Meta की खतरनाक लोग और संगठन की पॉलिसी के कारण में बताया गया है कि Meta ऐसे “कंटेंट की अनुमति नहीं देता जो उन इवेंट की प्रशंसा करे, उनका समर्थन करे या उनका प्रतिनिधित्व करे जिन्हें Facebook उल्लंघन करने वाले हिंसक ईवेंट मानता है – इसमें आतंकी हमले, नफ़रत भरे इवेंट, कई लोगों को पीड़ित करने वाली हिंसा या ऐसी कोशिश” शामिल है. विशेष नियमों के टियर 1 के तहत Meta ऐसे सभी ईवेंट की प्रशंसा हटा देता है.
III. Meta की वैल्यू:
Meta की वैल्यू Facebook कम्युनिटी स्टैंडर्ड के परिचय में बताई गई हैं और कंपनी ने कन्फ़र्म किया है कि ये वैल्यू Instagram पर भी लागू होती हैं. इनमें “वॉइस” की वैल्यू को “सर्वोपरि” बताया गया है:
हमारे कम्युनिटी स्टैंडर्ड का लक्ष्य लोगों को खुलकर अपनी बात कहने का प्लेटफ़ॉर्म देना और अभिव्यक्ति की आज़ादी सुनिश्चित करना है. Meta चाहता है कि लोग महत्वपूर्ण मुद्दों पर खुलकर बातें कर सकें, भले ही कुछ लोग उन बातों पर असहमति जताएँ या उन्हें ये बातें आपत्तिजनक लगें.
Meta चार अन्य वैल्यू के मामले में “वॉइस” को सीमित करता है, जिनमें से तीन यहाँ प्रासंगिक हैं:
सुरक्षा: हम Facebook को एक सुरक्षित जगह बनाने के लिए प्रतिबद्ध हैं. हम ऐसे कंटेंट हो हटा देते हैं, जो लोगों की शारीरिक सुरक्षा को नुकसान पहुँचाने का जोखिम बढ़ा सकता है. लोगों को धमकाने वाले कंटेंट से लोगों में डर, अलगाव या चुप रहने की भावना आ सकती है और इसलिए Facebook पर ऐसा कंटेंट पोस्ट करने की परमिशन नहीं है.
प्राइवेसी:हम लोगों की प्राइवेसी और निजी जानकारी को सुरक्षित रखने के लिए प्रतिबद्ध हैं. प्राइवेसी होने पर लोग अपने मन की बातें बिना झिझके कर सकते हैं, यह चुन सकते हैं कि उन्हें कोई चीज़ Facebook पर कब और कैसे शेयर करनी है और वे लोगों से और भी आसानी से जुड़ पाते हैं.
गरिमा: हमारा मानना है कि सभी लोगों को एक जैसा सम्मान और एक जैसे अधिकार मिलने चाहिए. हम उम्मीद करते हैं कि लोग एक दूसरे की गरिमा का ध्यान रखेंगे और दूसरों को परेशान नहीं करेंगे या नीचा नहीं दिखाएँगे.
IV. अंतरराष्ट्रीय मानवाधिकार स्टैंडर्ड:
बिज़नेस और मानवाधिकारों के बारे में संयुक्त राष्ट्र संघ के मार्गदर्शक सिद्धांत (UNGP), जिन्हें 2011 में संयुक्त राष्ट्र संघ की मानवाधिकार समिति ने स्वीकृति दी है, प्राइवेट बिज़नेस की मानवाधिकार से जुड़ी ज़िम्मेदारियों का स्वैच्छिक ढाँचा तैयार करते हैं. 2021 में Meta ने मानवाधिकारों से जुड़ी अपनी कॉर्पोरेट पॉलिसी की घोषणा की, जिसमें उसने UNGP के अनुसार मानवाधिकारों का ध्यान रखने की अपनी प्रतिज्ञा को दोहराया. इस केस में बोर्ड ने Meta की मानवाधिकार से जुड़ी ज़िम्मेदारियों का विश्लेषण इन मानवाधिकार स्टैंडर्ड को ध्यान में रखते हुए किया:
- अभिव्यक्ति की स्वतंत्रता का अधिकार: अनुच्छेद 19, नागरिक और राजनीतिक अधिकारों पर अंतरराष्ट्रीय प्रतिज्ञापत्र ( ICCPR), सामान्य कमेंट सं. 34, मानवाधिकार समिति, 2011; विचार और अभिव्यक्ति की स्वतंत्रता के बारे में संयुक्त राष्ट्र संघ के ख़ास रैपर्टर की रिपोर्ट: A/HRC/38/35 (2018) और A/74/486 (2019).
- प्राइवेसी का अधिकार: अनुच्छेद 17, ICCPR.
5. यूज़र सबमिशन
बोर्ड को दिए गए अपने बयान में यूज़र ने कहा कि उन्होंने हमले को लेकर जागरूकता फैलाने और दुनिया को नाइजीरिया में होने वाली घटनाओं के बारे में बताने के लिए वीडियो शेयर किया था.
6. Meta के सबमिशन
Meta ने हिंसक और आपत्तिजनक कंटेंट से जुड़ी पॉलिसी के तहत अपने कारण में बताया कि लोगों की हिंसक मृत्यु दिखाने वाली फ़ोटो, जिसमें वीडियो भी शामिल है, उन पर आम तौर पर चेतावनी स्क्रीन लगाई जाती है, जिससे पता चलता है कि कंटेंट परेशान करने वाला हो सकता है. वयस्क यूज़र्स, कंटेंट देखने के लिए क्लिक कर सकते हैं और नाबालिगों के लिए यह विकल्प मौजूद नहीं रहता है. हालाँकि, Meta ने यह भी बताया कि जब ऐसे कंटेंट में दूसरे की परेशानी में मज़ा लिया जाता है, तो कंटेंट को हटा दिया जाता है. Meta के अनुसार, ऐसा लोगों को प्लेटफ़ॉर्म पर हिंसा की प्रशंसा करने या दूसरों की तकलीफ़ों की खुशियाँ मनाने से रोकने के लिए किया जाता है. Meta ने कन्फ़र्म किया कि वीडियो को Instagram पर कैप्शन के बिना, परेशान करने वाले कंटेंट की चेतावनी स्क्रीन के साथ परमिशन मिल सकती है. अगर वीडियो में “अंदरूनी अंग दिखाए” जाते, जैसा कि इसी घटना के दूसरे वीडियो में था, तो मज़ा लेने वाले कमेंट के बिना भी उसे हिंसक और आपत्तिजनक कंटेंट से जुड़ी पॉलिसी के तहत हटा दिया जाता.
शुरुआत में, Meta ने बोर्ड को बताया कि इस केस में यूज़र को तकनीकी गलती के कारण चेतावनी स्क्रीन के बारे में और न ही उसे लागू करने वाली पॉलिसी के बारे में बताया गया. हालाँकि, बोर्ड की ओर से आगे और सवाल करने पर, Meta ने बताया कि Facebook यूज़र्स को आम तौर पर चेतावनी स्क्रीन लगाने और उसके कारण के नोटिफ़िकेशन मिलते हैं, लेकिन Instagram यूज़र्स को कोई नोटिफ़िकेशन नहीं मिलता.
Meta ने बताया कि मॉडरेटर्स के लिए इसके आंतरिक मार्गदर्शन और ज्ञात सवालों में मज़ाक उड़ाने वाले कमेंट को “दूसरे व्यक्ति या जानवर की तकलीफ़/अपमान में मज़ा लेने” के रूप में परिभाषित किया गया है. ज्ञात सवालों में ऐसे कमेंट के उदाहरण दिए गए हैं, जिन्हें दूसरों के दुख में मज़ा लेने वाला माना जा सकता है. ये “दुख में मज़ा लेना” और “व्यंग्य की अभिव्यक्ति”, दो कैटेगरी में विभाजित हैं. Meta ने यह भी कन्फ़र्म किया कि दूसरे की परेशानी में मज़ा लेने वाली बातें हैशटैग या इमोजी के ज़रिए भी कही जा सकती हैं.
इस केस में हैशटैग के अपने विश्लेषण में, Meta ने बताया कि बंदूक की आवाज़ का संदर्भ, 5 जून को हुए आतंकी हमले में हुई हिंसा को लेकर “व्यंग्य की अभिव्यक्ति” है. Meta ने बताया कि इसी हैशटैग का उपयोग हथियारों की मार्केटिंग में भी किया जाता है. Meta ने यह भी बताया कि बंदूक का हैशटैग, साथ ही बंदूकें और इससे जुड़ी चीज़ें इकट्ठा करने वाले लोगों के संदर्भ वाले हैशटैग को, “हिंसा की प्रशंसा और पीड़ितों की हत्या के लिए उपयोग में लाए गए हथियारों के बारे में हास्य करते हुए और सकारात्मक तरीके से बोलकर पीड़ितों की तकलीफ़ को कम आंकने के रूप में भी लिया जा सकता है.” Meta ने यह भी बताया कि मिलिट्री सिम्युलेशन का संदर्भ देने वाला हैशटैग, हमले की तुलना सिम्युलेशन से करता है, “जिससे पीड़ितों और उनकी कम्युनिटी के साथ हुई वास्तविक त्रासदी और हानि का आकलन कम हो जाता है.” Meta ने यह भी बताया कि “airsoft” वाला हैशटैग, हमले की तुलना ऐसे तरीके से गेम से करता है जिससे हिंसा को मज़े लेने के लिए किए गए काम के रूप में बढ़िया बताया गया है.
Meta ने बताया कि यूज़र के इस कैप्शन से कि वह हिंसा का समर्थन नहीं करते और हमले का दिन दुखद था, “यह स्पष्ट नहीं होता कि वह हमले के बारे में जागरूकता फैलाने के लिए वीडियो शेयर कर रहे हैं.” कंपनी ने यह भी स्पष्ट किया कि भले यूज़र का इरादा जागरूकता फैलाने का था, तब भी “मज़े लेने वाले हैशटैग” की वजह से कंटेंट को हटाया जाता. इस स्थिति के समर्थन में, Meta ने बताया कि कुछ यूज़र्स अपनी पोस्ट में भ्रामक या परस्पर विरोधी भाषा का उपयोग करके मॉडरेशन से बचने की कोशिश करते हैं. Meta ने इसे बोर्ड के “सूडान के आपत्तिजनक वीडियो” वाले केस ( 2022-002-FB-FBR) से अलग बताया, जहाँ यूज़र ने परेशान करने वाला कंटेंट शेयर करते समय जागरूकता फैलाने का अपना इरादा साफ़ ज़ाहिर किया था. बोर्ड के सवालों के जवाब में, Meta ने बोर्ड को बताया कि यूज़र ने अपनी कई हालिया पोस्ट में ऐसे ही हैशटैग शामिल किए हैं. Meta यह तय नहीं कर पाया कि यूज़र बार-बार ऐसे ही हैशटैग का उपयोग क्यों कर रहा है.
Meta ने यह भी बताया कि यूज़र्स की पोस्ट से धमकी और उत्पीड़न की पॉलिसी का उल्लंघन हो रहा था, जिसके तहत किसी व्यक्ति विशेष की मृत्यु का मज़ाक बनाने वाले कंटेंट की परमिशन नहीं है. इस केस में, बंदूक की आवाज़ के संदर्भ वाले हैशटैग को वीडियो में दिखाई गई हिंसा को लेकर व्यंग्य की अभिव्यक्ति माना गया था.
बोर्ड के सवालों के जवाब में, Meta ने यह भी देखा कि कंटेंट से खतरनाक लोग और संगठन से जुड़ी पॉलिसी का उल्लंघन हो रहा था. Meta ने 5 जून के हमले को “कई लोगों को पीड़ित करने वाला हिंसक ईवेंट” माना और इसलिए ऐसा कोई भी कंटेंट जिसे ऐसे ईवेंट की प्रशंसा, समर्थन या प्रतिनिधित्व माना जाता है, उसकी खतरनाक लोग और संगठन की पॉलिसी के तहत परमिशन नहीं है. Meta ने बताया कि यह Christchurch Call for Action के तहत कंपनी की प्रतिज्ञा के अनुकूल है और कंपनी ने 5 जून वाले हमले के बारे में Global Internet Forum to Counter Terrorism में इंडस्ट्री पार्टनर्स से चर्चा की. Meta ने बताया कि यह काफ़ी कठिन फ़ैसला था. इस केस का कंटेंट हमले के पीड़ितों का मज़ाक बनाने और उपयोग किए गए हथियारों के बारे में सकारात्मक बात करने जैसा लग रहा है और इसलिए कंपनी की पॉलिसी के तहत निर्धारित किए गए ईवेंट की प्रशंसा करने वाले कंटेंट की कैटेगरी में है.
Meta ने कहा कि इस केस में कंटेंट हटाने से कंपनी की सभी वैल्यू का सही संतुलन बनता है. यूज़र के कैप्शन में हमले से प्रभावित पीड़ित, उनके परिवारों और कम्युनिटी की गरिमा के प्रति सम्मान की कमी है – इन सभी से ज़्यादा यूज़र की खुद की अभिव्यक्ति दिखाई देती है. बोर्ड के सवालों के जवाब में, Meta ने कन्फ़र्म किया कि कंपनी ने 5 जून को हुए हमले की उल्लंघन करने वाली फ़ोटो के कंटेंट के लिए ख़बर में रहने लायक वाली कोई छूट जारी नहीं की थी.
आखिरी में, Meta ने बताया कि कंपनी के एक्शन अंतरराष्ट्रीय मानवाधिकार कानून के साथ संगत थे और कहा कि दूसरे की परेशानी में मज़ा लेने वाले कंटेट पर इसकी पॉलिसी स्पष्ट है और सभी इसे एक्सेस कर सकते हैं. पॉलिसी का लक्ष्य दूसरों के अधिकारों की सुरक्षा करने के साथ ही सार्वजनिक व्यवस्था और राष्ट्रीय सुरक्षा बनाए रखना है. इस कंटेंट को हटाने के अलावा और किसी भी एक्शन से नुकसान के जोखिम की समस्या का पर्याप्त रूप से हल नहीं होता. Meta ने Hachette Filipacchi Associes v. France (2007) केस में मानवाधिकारों के लिए यूरोपियन कोर्ट के फ़ैसले की ओर ध्यान दिलाया. इस केस में पत्रकार ने एक काफ़ी लोकप्रिय पत्रिका में किसी की हिंसक मृत्यु की फ़ोटो प्रकाशित की थी, जिससे “संबंधित लोगों की तकलीफ़ और बढ़ गई थी” और पत्रकार को दोषी माना गया था. Meta ने 2010 में Human Rights Practice जर्नल में प्रकाशित हुए सैम ग्रेगरी के आर्टिकल, “Cameras Everywhere: Ubiquitous Video Documentation of Human Rights, New Forms of Video Advocacy, and Considerations of Safety, Security, Dignity and Consent” की ओर ध्यान दिलाया, जिसमें बताया गया कि “बहुत आपत्तिजनक हिंसा” जैसे कि हिंसक हमलों से “सबसे ज़्यादा अपमान, निजता और अधिकारों का हनन होता है और इससे दोबारा पीड़ित होने की पूरी-पूरी संभावना होती है.” Meta ने ध्यान दिया कि इसकी पॉलिसी के तहत आपत्तिजनक कंटेंट को हटाया नहीं जाता बल्कि उस पर चेतावनी स्क्रीन लगाई जाती है और नाबालिगों को इसकी एक्सेस नहीं होती. कंपनी ने कहा कि दूसरे की परेशानी में मज़े लेने वाले कमेंट हटाने की इसकी पॉलिसी “एक कदम आगे है” क्योंकि “गरिमा की वैल्यू, वॉइस की वैल्यू से ज़्यादा मायने रखती है.”
बोर्ड ने Meta से 29 सवाल पूछे, जिनमें से 28 सवालों के पूरे जवाब दिए गए. Meta ने सब-सहारा अफ़्रीकी मार्केट से मिली ऐसी यूज़र रिपोर्ट के प्रतिशत के बारे में पूछे गए सवाल का जवाब नहीं दिया, जिन्हें बिना रिव्यू के बंद कर दिया जाता है.
7. पब्लिक कमेंट
ओवरसाइट बोर्ड ने लोगों की ओर से इस केस पर मिले नौ कमेंट पर विचार किया. इनमें से एक कमेंट एशिया पैसिफ़िक और ओशियाना से, एक केंद्रीय और दक्षिणी एशिया से, एक मध्य पूर्व और उत्तरी अफ़्रीका से, एक सब सहारा अफ़्रीका से और पाँच अमेरिका और कनाडा से थे.
सबमिट किए गए कमेंट में हिंसक और आपत्तिजनक कंटेंट से जुड़ी पॉलिसी और नाइजीरिया क्षेत्र विशेष के मुद्दों के बारे में स्पष्ट करने की ज़रूरत वाले विषय शामिल थे, जिनके बारे में बोर्ड को फ़ैसला लेते समय जानकारी होनी चाहिए.
इस केस को लेकर लोगों की ओर से सबमिट किए गए कमेंट देखने के लिए कृपया यहाँ क्लिक करें.
8.ओवरसाइट बोर्ड विश्लेषण
बोर्ड ने इन तीन दृष्टिकोणों से इस सवाल पर ध्यान दिया कि क्या इस कंटेंट को रीस्टोर कर दिया जाना चाहिए: Meta की कंटेंट पॉलिसी, कंपनी वैल्यू और मानवाधिकारों से जुड़ी उसकी ज़िम्मेदारियाँ.
8.1 Meta की कंटेंट पॉलिसी का अनुपालन
बोर्ड ने Meta की तीन कंटेंट पॉलिसी का विश्लेषण किया: हिंसक और आपत्तिजनक कंटेंट; धमकी और उत्पीड़न, और खतरनाक लोग और संगठन. बोर्ड के अधिकतर मेंबर्स को लगा कि कंटेंट से किसी भी पॉलिसी का उल्लंघन नहीं हो रहा था.
I. कंटेंट नियम
हिंसक और आपत्तिजनक कंटेंट
पॉलिसी बनाने के कारण में बताया गया है कि Meta “ऐसे कंटेंट को हटा देता है जिसमें मनुष्यों और पशुओं की पीड़ा दिखाने वाली फ़ोटो पर मज़ा लेने वाली बातें कही गई हों.” हालाँकि, इसमें यह भी कहा गया है कि इसके तहत कुछ सीमाओं के साथ आपत्तिजनक कंटेंट की परमिशन है ताकि लोग “मानवाधिकार हनन, सशस्त्र संघर्ष या आतंकवादी कृत्य जैसे महत्वपूर्ण मुद्दों” को लेकर चर्चा में निंदा कर सकें और जागरूकता फैला सकें. पॉलिसी में चेतावनी स्क्रीन की सुविधा भी है ताकि लोगों को सचेत किया जा सके कि कंटेंट देखकर वे परेशान हो सकते हैं, इसमें हिंसक मृत्यु वाली फ़ोटो भी शामिल है. पॉलिसी बनाने के कारण के ठीक नीचे दिए गए नियमों में, Meta ने बताया है कि यूज़र्स “इस पॉलिसी के तहत हटाई गई फ़ोटो या जिस पर चेतावनी स्क्रीन लगाई गई हो, उस पर मज़े लेने वाले कमेंट नहीं कर सकते.” Meta ने इसके आगे मज़े लेने वाले कमेंट को लेकर और कोई विवरण या उदाहरण नहीं दिए हैं.
बोर्ड इस बात पर Meta से सहमत है कि इस केस के वीडियो में हिंसक मृत्यु दिखाई गई हैं और बिना कैप्शन के वीडियो में चेतावनी स्क्रीन लगाई जानी चाहिए. बोर्ड द्वारा “सूडान के आपत्तिजनक वीडियो” केस को लेकर लिए गए फ़ैसले के कंटेंट से अलग, इस केस के वीडियो में, खून से लथपथ मृत शरीर दिखाने के बावजूद भी इसमें कोई अंदरूनी अंग नहीं दिख रहे हैं, जिसके लिए पॉलिसी के तहत कंटेंट को हटाना ज़रूरी होता. “सूडान के आपत्तिजनक वीडियो” केस में, हैशटैग से मानवाधिकार हनन को डॉक्यूमेंट करने का इरादा दिख रहा था और बोर्ड ने उन हैशटैग से स्पष्ट हो रहे इरादे और कंटेंट को रीस्टोर करने के लिए Meta की ख़बर में रहने लायक छूट को ध्यान में रखा. इस केस में, बोर्ड द्वारा Meta की कंटेंट पॉलिसी को ध्यान में रखते हुए, कंटेंट का आकलन बहुत हद तक वीडियो फ़ुटेज में कोई भी अंदरूनी अंग, अंगभंग या झुलसे शरीर नहीं दिखने और उपयोग किए गए हैशटैग वाले तथ्य पर आधारित है. अधिकतर मेंबर्स से अलग कुछ मेंबर्स के विचार में अंतर, केस में उपयोग किए गए हैशटैग के अर्थ या उद्देश्य को लेकर है.
अधिकतर बोर्ड मेंबर्स इसे यूज़र्स द्वारा हैशटैग का आम उपयोग मान रहे हैं, जिससे कि पोस्ट को किसी ख़ास कम्युनिटी और समान रुचियाँ रखने वाले लोगों में प्रमोट किया जा सके और रिलेशनशिप दिखाई जा सके. इस तरह उपयोग किए जाने पर, यह ज़रूरी नहीं कि वे फ़ोटो या मुद्दे पर ही किए गए कमेंट हैं. बोर्ड के अधिकतर मेंबर्स का मानना है कि कैप्शन के हैशटैग किसी के दुख में मज़े लेने वाले कमेंट नहीं हैं क्योंकि उनका उपयोग इस तरीके से नहीं किया गया है जिससे दिखे कि यूज़र दूसरे के दुख का “मज़ा ले रहा है या खुशी मना रहा है.” इस केस में उपयोग किए गए अलग तरह के हैशटैग की लंबी लिस्ट का मतलब वीडियो पर कमेंट के रूप में निकालना, भ्रामक है. यह बात इस केस को “सूडान के आपत्तिजनक वीडियो” वाले केस से अलग बनाती है, जहाँ हैशटैग से आपत्तिजनक वीडियो शेयर करने के पीछे यूज़र का इरादा साफ़ नज़र आता है. यूज़र द्वारा airsoft गेम के बारे में हैशटैग, साथ ही बंदूकों, मिलिट्री सिम्युलेशन से जुड़े हैशटैग शामिल करने को "हिंसा की प्रशंसा" नहीं माना जा सकता (खतरनाक लोग और संगठन की पॉलिसी के तहत), बल्कि "मज़ाक बनाने" जैसा तो बिलकुल भी नहीं माना जा सकता (धमकी और उत्पीड़न की पॉलिसी के तहत) या यह भी नहीं मान सकते कि इनके उपयोग से दिखाई देता है कि यूज़र "दूसरे के दुख का मज़ा ले रहा है या खुशी मना रहा है" (आपत्तिजनक वीडियो की पॉलिसी के तहत). सोशल मीडिया के कई यूज़र्स airsoft गेम, बंदूकों या मिलिट्री सिम्युलेशन में दिलचस्पी रखते हैं और वे किसी भी तरह से आतंकवाद या लोगों के प्रति हिंसा के लिए समर्थन दिखाए बिना दूसरों से कनेक्ट करने के लिए इन हैशटैग का उपयोग कर सकते हैं. airsoft हैशटैग ख़ास तौर पर गेम को लेकर उत्साह से जुड़े हुए हैं, और कुल मिलाकर वीडियो के कंटेंट और उसके नीचे यूज़र द्वारा तुरंत ही शेयर किए गए कमेंट के साथ असंगत है. इससे Meta को पता चल जाना चाहिए था कि यूज़र ऐसे लोगों में जागरूकता फैलाना चाहते हैं जिनसे वे आम तौर पर Instagram पर बात करते हैं और अन्य लोगों तक भी पहुँचना चाहते हैं. Instagram को ऐसे डिज़ाइन किया गया है कि कई हैशटैग का उपयोग करने से कंटेंट प्रमोट होता है और नई ऑडियंस तक पहुँचा जा सकता है, इसलिए यह ज़रूरी है कि Meta हैशटैग के किसी उपयोग को गलत इरादे वाला मानने से पहले काफ़ी जाँच-पड़ताल करे. बोर्ड द्वारा कराई गई निष्पक्ष रिसर्च से कन्फ़र्म होता है कि इस पोस्ट में उपयोग किए गए हैशटैग airsoft गेम और बंदूकों में दिलचस्पी रखने वाले कई लोग करते हैं और Meta ने यह पता नहीं किया कि इन हैशटैग का उपयोग अप्रत्यक्ष व्यंग्य के रूप में किया गया है ताकि इसके प्लेटफ़ॉर्म पर पहचाने जाने से बचा जा सके.
अधिकतर मेंबर्स के लिए, यह बात साफ़ थी कि यूज़र ने, चेतावनी स्क्रीन लगाए जाने के बाद, वीडियो में जो कमेंट किए थे, उनसे ऐसा नहीं लगता कि उन्हें हमले में मज़ा आ रहा था या वह खुशी मना रहे थे. यूज़र ने कहा कि हमला एक “दुखद दिन” था और वे हिंसा का समर्थन नहीं करते. पोस्ट में किए गए कमेंट से भी आगे पता चलता है कि यूज़र के फ़ॉलोअर्स को उनका इरादा समझ में आ रहा था कि वह जागरूकता बढ़ाना चाहते हैं, जैसे कि “नाज़ी उद्धरण” वाले केस में हुआ था. उन कमेंट को लेकर यूज़र के जवाबों में भी पीड़ितो के प्रति सहानुभूति दिखाई गई है. बोर्ड Meta के इस तर्क को मानता है कि कंटेंट में यूज़र के स्पष्ट कथनों को हमेशा वैसा नहीं माना जा सकता, जैसे वे दिखते हैं, क्योंकि कुछ यूज़र इन्हें शामिल करके मॉडरेशन से बचने की कोशिश करते हैं और उनकी पोस्ट का वास्तविक उद्देश्य कुछ और ही होता है. बोर्ड ने अपने निष्कर्ष के बारे में याद दिलाया कि, किसी यूज़र के लिए यह ज़रूरी नहीं होना चाहिए कि वह आतंकी समूहों के कृत्यों पर कमेंट करते समय साफ़ शब्दों में निंदा करें और ऐसा करने से उनकी अभिव्यक्ति ऐसे क्षेत्रों में बहुत ही सीमित हो सकती है, जहाँ ऐसे समूह सक्रिय हैं (“न्यूज़ रिपोर्टिंग में तालिबान का उल्लेख” वाले केस में बोर्ड का फ़ैसला देखें).
बोर्ड के कुछ मेंबर्स का निष्कर्ष है कि साथ में आकलन करने पर, शूटिंग वाले हैशटैग का फ़ुटेज के साथ विरोधाभास मज़े लेने जैसा लगता है और दिखाए गए लोगों की हत्या की तुलना गेम से करना, हमले में उपयोग किए गए हथियारों को प्रमोट करने जैसा लग रहा है. यह हमले में बच गए लोगों और मृत लोगों के रिश्तेदारों को ऐसा लगेगा कि उनके दुख में मज़ा लिया जा रहा है और दोबारा पीड़ित होने की संभावना को कंटेंट पर चेतावनी स्क्रीन लगाकर कम नहीं किया जा सकता. नाइजीरिया में आतंकी हमले का संदर्भ देखते हुए, कुछ मेंबर्स को लगता है कि Meta सावधानी बरतने में सही है, क्योंकि आपत्तिजनक हिंसा वाले वीडियो के कमेंट दूसरे की परेशानी में मज़ा लेने जैसे लग रहे हैं, भले ही कमेंट कुछ हद तक अस्पष्ट हैं. यह ख़ास तौर पर इस वीडियो के लिए प्रासंगिक है, जहाँ पीड़ित व्यक्ति विशेष को उनके चेहरे दिखाए जाने की वजह से पहचाना जा सकता है और जहाँ बच गए लोगों के विरुद्ध हमलावर की ओर से और हिंसा और बदले को नकारा नहीं जा सकता. बोर्ड के कुछ मेंबर्स को यह भी लगता है कि इस केस में कैप्शन के कथन, बंदूकों के प्रति उत्साही लोगों से जुड़े विरोधाभासी हैशटैग के मज़े लेने वाले प्रभाव को कम नहीं करते क्योंकि वीडियो में बंदूकों से हुई हिंसा के बाद के भयानक हालात दिखाए गए हैं. हालाँकि हैशटैग कम्युनिटी के मेंबर्स से जुड़ने के उद्देश्य के लिए हो सकते हैं, लेकिन बोर्ड के कुछ मेंबर्स का मानना है कि इस तरह की स्थितियों में Meta का ऐसे तरीके से पॉलिसी को लागू करना सही है जो बचे हुए लोगों और पीड़ितों के परिवारों के दृष्टिकोण से कंटेंट को देखे.
इस बात पर ध्यान देना ज़रूरी है कि Meta संकट के समय आसानी से और संगतता के साथ अपनी पॉलिसी लागू कर सके, जैसे कि आतंकी हमलों के बाद के हालातों वाले समय में जहाँ सोशल मीडिया पर फ़ोटो बहुत जल्दी फैलती हैं. कुछ मेंबर्स मानते हैं कि मॉडरेटर और पोस्ट पढ़ने वाला असंबद्ध व्यक्ति यह नहीं जानते कि यूज़र ने अपनी कई हालिया पोस्ट में ऐसे हैशटैग सामान्य रूप से, अपनी कम्युनिटी से जुड़ने के लिए जोड़े हैं. तेज़ी से बदलते हालातों में, कुछ मेंबर्स का मानना है कि यूज़र द्वारा बंदूकों वाले हैशटैग के उपयोग को तकलीफ़ में मज़ा लेने या खुशी मनाने वाला मानने में Meta सही था. अधिकतर मेंबर्स ने माना कि कंटेंट को हटाना एक जायज़ गलती थी और Meta के साथ सहमति जताई कि यह "काफ़ी कठिन निर्णय" था. फिर भी, बोर्ड के निष्पक्ष विश्लेषण से (जिसमें एक्सपर्ट द्वारा शूटिंग के संदर्भ में, नाइजीरिया में हिंसा के आम माहौल के बारे में, साथ ही हैशटैग के मतलब और उपयोग की जानकारी दी गई) अधिकतर मेंबर्स का मानना है कि हैशटैग बंदूकों के बारे में है, बस इसी कारण से उन्हें मज़े लेने के इरादे वाला मानना गलती है.
धमकी और उत्पीड़न
धमकी और उत्पीड़न की पॉलिसी के टीयर 4 के तहत किसी व्यक्ति विशेष की मृत्यु या गंभीर चोट का मज़ाक बनाने वाले कंटेंट की परमिशन नहीं है.
पिछले सेक्शन में बताए गए इन्हीं कारणों की वजह से, अधिकतर मेंबर्स का मानना है कि कंटेंट मज़े के लिए नहीं है, क्योंकि हैशटैग का उद्देश्य मज़ाक बनाना नहीं है बल्कि दूसरे यूज़र्स से जुड़ना है. यह बात पोस्ट पर दिए गए रेस्पॉन्स और यूज़र के उनके साथ इंटरैक्शन से भी साफ़ होती है. Meta ने कई सारे हैशटैग को शेयर किए गए वीडियो पर कमेंट मान लिया जिससे गलती हुई. जैसा कि ऊपर बताया गया है, यूज़र बंदूकों के उत्साही यूज़र्स को पीड़ितों का मज़ाक बनाने के लिए नहीं कह रहा था, जैसा कि पोस्ट पर मिले रेस्पॉन्स और यूज़र के उन रेस्पॉन्स के साथ इंटैक्शन से भी कन्फ़र्म होता है, जिनमें सदमे और सहानुभूति की अभिव्यक्ति है और इनके बारे में Meta ने कन्फ़र्म किया कि ये अधिकतर नाइजीरिया के यूज़र्स के हैं (“नाज़ी उद्धरण” वाले केस में बोर्ड का फ़ैसला देखें). अधिकतर मेंबर्स इससे सहमत हैं कि बचे हुए लोगों और पीड़ितों के परिवारों के दृष्टिकोण का ध्यान रखना ज़रूरी है. इस कंटेंट पर मिले रेस्पॉन्स से पता चलता है कि ये दृष्टिकोण, ख़ास तौर पर नाइजीरिया के इसाई लोगों पर अक्सर होने वाले हमलों को देखते हुए, कंटेंट को प्लेटफ़ॉर्म पर रखे जाने से ज़्यादा महत्वपूर्ण नहीं हैं.
बोर्ड के कुछ मेंबर्स सहमत नहीं हैं. बंदूकों वाले हैशटैग जोड़ने से ऐसा भी लगता है कि यूज़र जानबूझकर बंदूकों के लिए उत्साही लोगों का ध्यान वीडियो की ओर खींच रहा है. Meta को यह कंटेंट मज़ाक बनाने जैसे लगना सही था और कंपनी के लिए यह आकलन करते समय बच गए लोगों और पीड़ितों के परिवारों के दृष्टिकोण को प्राथमिकता देना भी उचित है.
खतरनाक लोग और संगठन
खतरनाक लोग और संगठन की पॉलिसी का टियर 1“कई लोगों को पीड़ित करने वाली हिंसा” की प्रशंसा, उनका समर्थन या प्रतिनिधित्व करने वाले कंटेंट की परमिशन नहीं देता.
बोर्ड इस बात से सहमत है कि Meta की “कई लोगों को पीड़ित करने वाली हिंसा” की परिभाषा के अनुसार 5 जून का हमला इस कैटेगरी में आता है. हालाँकि अधिकतर मेंबर्स को कैप्शन में उपयोग किए गए हैशटैग हमले की “प्रशंसा” जैसे नहीं लगे, ठीक उन्हीं कारणों से जिनसे वे दूसरे के दुख के मज़े लेने जैसे नहीं थे. कुछ मेंबर्स इससे असहमत हैं और उन्हें लगता है कि कठिन फ़ैसला होने के बावजूद भी पिछले सेक्शन में बताए गए कारणों से, हैशटैग और कंटेंट में विरोधाभास को हमले की प्रशंसा के रूप में देखा जा सकता है.
II. एन्फ़ोर्समेंट एक्शन
Meta ने शुरुआत में बोर्ड को बताया कि यूज़र को उनके कंटेंट पर चेतावनी स्क्रीन लगाए जाने का कोई मैसेज तकनीकी समस्या की वजह से नहीं भेजा गया. लेकिन, बोर्ड के सवालों के जवाब में, Meta ने जाँच की और पाया कि Instagram यूज़र्स को उनके कंटेंट पर चेतावनी स्क्रीन लगाए जाने के बारे में नहीं बताया जाता है. इस केस में, कैप्शन जोड़ना चेतावनी स्क्रीन लगाए जाने पर रिस्पॉन्स देने की कोशिश हो सकती है, जिसमें यूज़र ने साफ़ कहा कि वह हिंसा का समर्थन नहीं करते हैं. Meta को सुनिश्चित करना चाहिए कि सभी यूज़र्स को उनके कंटेंट पर चेतावनी स्क्रीन लगाए जाने और उसके कारण के बारे में बताया जाए.
बोर्ड ने ध्यान दिया कि इस केस में कंटेंट को इसलिए हटा दिया गया क्योंकि इसमें शामिल वीडियो, लगभग इसी के जैसे दूसरे वीडियो से मैच हो रहा था, जिसे गलती से एस्केलेशन बैंक में जोड़ दिया गया था, जो कि मैच होने वाले कंटेंट को ऑटोमैटिक तरीके से हटा देता है. “कोलंबियाई पुलिस कार्टून” वाले केस में, बोर्ड ने कहा कि Meta को सुनिश्चित करना चाहिए कि इसका सिस्टम और स्क्रीनिंग प्रोसेस कंटेंट को किसी ऐसे मीडिया मैचिंग सर्विस बैंक में जोड़ने से पहले उसका आकलन करने के लिए एकदम उपयुक्त हो, जो मैच हुए कंटेंट को बिना रिव्यू के हटा देता है. बोर्ड यह समझता है कि संकट के तुरंत बाद के हालातों में, Meta की ओर से यह सुनिश्चित करने की कोशिश थी कि उल्लंघन करने वाला कंटेंट इसके प्लेटफ़ॉर्म पर न फैले. हालाँकि, मीडिया मैचिंग सर्विस बैंक के कई प्रभावों को देखते हुए, कंट्रोल काफ़ी गंभीर पहलू है. Meta को यह सुनिश्चित करना चाहिए कि इस गलत बैकिंग के कारण हटाए गए सभी कंटेंट को रीस्टोर किया जाए और इससे जुड़ी सभी स्ट्राइक भी हटाई जाएँ.
बोर्ड इस बात को लेकर चिंतित है कि कंटेंट की तीन यूज़र रिपोर्ट का कंटेंट हटाए जाने के पहले, पाँच दिन में रिव्यू नहीं किया गया. बोर्ड के सवालों के जवाब में, Meta ने बताया कि ऐसा अनजान तकनीकी समस्या के कारण हुआ, जिसकी जाँच चल रही है. आगे और सवालों के जवाब में, Meta यह निश्चित तौर पर नहीं बता सकता कि सब सहारा अफ़्रीका में Instagram यूज़र्स की कितने प्रतिशत रिपोर्ट रिव्यू के बिना बंद कर दी गईं.
8.2 Meta की वैल्यू का अनुपालन
बोर्ड ने निष्कर्ष निकाला कि इस केस में कंटेंट हटाना Meta की “वॉइस” वैल्यू से संगत नहीं था.
बोर्ड इन स्थितियों की जटिलताओं को समझता है. इस केस का कंटेंट 5 जून वाले हमले के पीड़ितों की साथ ही उनके परिवारों और कम्युनिटी की गरिमा और प्राइवेसी से जुड़ा है. इस वीडियो में कई पीड़ितों के चेहरे दिखाई दे रहे हैं और इन्हें पहचाना जा सकता है.
बोर्ड ने याद दिलाया कि इसके “सूडान के आपत्तिजनक वीडियो" वाले केस और “रूसी कविता” वाले केस में, इसने Meta को हिंसक और आपत्तिजनक कंटेंट की पॉलिसी को Meta की सभी वैल्यू के अनुसार सुधारने के लिए कहा था. बोर्ड ने पाया कि पॉलिसी में “जागरूकता फैलाने” के लिए आपत्तिजनक कंटेंट शेयर करने से जुड़े नियम बहुत स्पष्ट नहीं थे. कई केस में, बोर्ड ने पाया कि Meta की सभी वैल्यू “वॉइस,” “प्राइवेसी,” “गरिमा” और “सुरक्षा” का संतुलन बनाए रखने के लिए चेतावनी स्क्रीन लगाना सही प्रक्रिया हो सकती है (“सूडान के आपत्तिजनक वीडियो” और “रूसी कविता” वाले केस में बोर्ड के फ़ैसले देखें). बोर्ड इस बात से सहमत है कि, ऐसे संदर्भों में जहाँ राज्य अवैधानिक तरकों से नागरिकों और मीडिया के अधिकार प्रतिबंधित करते हैं, जैसा कि नाइजीरिया में, Meta की "वॉइस" की वैल्यू का महत्व और भी बढ़ जाता है ("कोलंबिया विरोध प्रदर्शन"वाले केस में इसका फ़ैसला देखें). बोर्ड इससे भी सहमत है कि मानवाधिकार हनन के बारे में जागरूकता बढ़ाना “वॉइस” का विशेष रूप से महत्वपूर्ण पहलू है, जिससे सभी को जानकारी उपलब्ध कराकर “सुरक्षा” बढ़ाई जा सकती है. चेतावनी स्क्रीन “वॉइस” की वैल्यू को बनाए रख सकती है, हालाँकि कंटेंट बहुत आपत्तिजनक नहीं होने पर इसका उपयोग उचित नहीं क्योंकि इससे कंटेंट की पहुँच और इंटरैक्शन कम होता है ("रूसी कविता” वाले केस में बोर्ड का फ़ैसला देखें).
पिछले सेक्शन में बताए गए इन्हीं कारणों की वजह से, सभी मेंबर्स के इस बारे में अलग निष्कर्ष रहे कि वीडियो कैप्शन में जोड़े गए हैशटैग के अर्थ को समझने में Meta की कौन-सी वैल्यू ज़रूरी हैं. अधिकतर मेंबर्स ने ध्यान दिया कि “वॉइस” की वैल्यू की सुरक्षा करना वहाँ सबसे ख़ास तौर से ज़रूरी है, जहाँ कंटेंट मानवाधिकार के गंभीर उल्लंघन और अत्याचारों की ओर ध्यान आकर्षित करता है, जिसमें नाइजीरिया के चर्च पर हुआ हमला शामिल है. अधिकतर मेंबर्स का मानना है कि ये हैशटैग यूज़र के कैप्शन वाले कथन में पीड़ितों के प्रति व्यक्त सहानुभूति के विरोधाभासी नहीं हैं और उनका उपयोग जागरूकता फैलाने के लिए यूज़र की जारी कोशिशों के साथ संगत है. चूँकि कैप्शन “दूसरे के दुख में मज़े लेने” वाला नहीं है, इसलिए कंटेंट को आयु सीमा वाली चेतावनी स्क्रीन के साथ रीस्टोर करना Meta की वैल्यू के अनुसार है. अधिकतर मेंबर्स यह मानते हैं कि चेतावनी स्क्रीन जोड़ने से “वॉइस” की वैल्यू प्रभावित होगी क्योंकि इससे कंटेंट की पहुँच सीमित हो जाती है, जो कि मानवाधिकर हनन को लेकर जागरूकता बढ़ा रहा है, लेकिन वीडियो में पीड़ितों को पहचाना जा सकता है, इसलिए स्क्रीन “गरिमा” और “सुरक्षा” की वैल्यू का सही संतुलन बनाने के लिए ज़रूरी है.
कुछ मेंबर्स का मानना है कि कंटेंट को हटाना ही सही है ताकि पीड़ितों के परिवारों और हमले में जो लोग बच गए उनकी “गरिमा” और “सुरक्षा” को बनाए रखा जा सके. ऐसा इसलिए क्योंकि जिस कंटेंट में करीबी लोगों की हत्या को लेकर दुख में मज़े लेने वाले और मज़ाक बनाने वाले कमेंट हैं, उसके एक्सपोज़र से लोगों के दोबारा पीड़ित होने की बहुत ज़्यादा संभावना है. साथ ही वीडियो में कई पीड़ितों के चेहरे धुंधले नहीं किए गए हैं, वे साफ़ दिखाई दे रहे हैं और पहचाने जा सकते हैं. “वॉइस” का सम्मान करते हुए, कुछ मेंबर्स मानते हैं कि ऐसे ही कंटेंट को प्लेटफ़ॉर्म पर बिना हैशटैग के चेतावनी स्क्रीन के साथ शेयर किया जाना प्रासंगिक है और यूज़र के लिए बंदूक वाले हैशटैग के बिना ऐसा ही कंटेंट शेयर करना संभव रहे. इसलिए Meta द्वारा कंटेंट को हटाने से नाइजीरिया में जागरूकता फैलाने और इन अत्याचारों के लिए जवाबदेही पाने के लिए कम्युनिटी के प्रयास बहुत ज़्यादा प्रभावित नहीं हुए.
8.3 Meta की मानवाधिकारों से जुड़ी ज़िम्मेदारियों का अनुपालन
बोर्ड के अधिकतर मेंबर्स ने माना कि इस केस में कंटेंट को हटाना, Meta की मानवाधिकार ज़िम्मेदारियों से असंगत है. हालाँकि, जैसा कि “सूडान के आपत्तिजनक वीडियो” वाले केस में, सभी ने माना था कि Meta को हिंसक और आपत्तिजनक कंटेंट की पॉलिसी में सुधार करना चाहिए ताकि यह स्पष्ट हो सके कि पॉलिसी के कौन से नियम मानवाधिकार हनन और उल्लंघनों के बारे में जागरूकता फैलाने वाले कंटेंट को प्रभावित करते हैं.
अभिव्यक्ति की स्वतंत्रता (अनुच्छेद 19 ICCPR)
ICCPR का अनुच्छेद 19, अभिव्यक्ति की स्वतंत्रता की व्यापक रक्षा करता है जिसमें जानकारी माँगने और पाने का अधिकार शामिल है. हालाँकि, इस अधिकार को कुछ विशेष स्थितियों में प्रतिबंधित किया जा सकता है, जिसे वैधानिकता (स्पष्टता), वैधता और अनिवार्यता तथा आनुपातिकता के तीन-हिस्सों वाले टेस्ट के अनुसार मूल्यांकित किया जाता है. बोर्ड ने इस फ़्रेमवर्क को Meta की कंटेंट पॉलिसी और एन्फ़ोर्समेंट की प्रक्रियाओं का विश्लेषण करने के लिए अपनाया है. अभिव्यक्ति की स्वतंत्रता पर UN का विशेष रैपर्टर सोशल मीडिया कंपनियों को प्रोत्साहित करता है कि वे ऑनलाइन अभिव्यक्ति को मॉडरेट करते समय इन सिद्धांतों से मार्गदर्शन लें, इस बात का ध्यान रखें कि निजी कंपनियों द्वारा बड़े पैमाने पर अभिव्यक्ति के नियत्रंण से उस संदर्भ से जुड़ी चिंताएँ सामने आ सकती हैं (A/HRC/38/35, पैरा. 45 और 70).
I.वैधानिकता (नियमों की स्पष्टता और सुलभता)
वैधानिकता के सिद्धांत के तहत यह ज़रूरी है कि अभिव्यक्ति की स्वतंत्रता पर लगाया गया कोई भी सिद्धांत स्पष्ट हो और उसे एक्सेस किया जा सके, ताकि लोगों को मालूम हो कि वे क्या कर सकते हैं और क्या नहीं (सामान्य कमेंट सं. 34, पैरा. 25 और 26). स्पष्ट की कमी होने से नियमों का अर्थ अलग-अलग निकाला जा सकता है और इसके कारण उन्हें मनमाने तरीके से लागू किया जा सकता है. कंटेंट मॉडरेशन में पारदर्शिता और उत्तरदायित्व पर सेंटा क्लारा सिद्धांत , जिनका Meta समर्थन करता है, वे कंपनियों द्वारा अंतरराष्ट्रीय स्टैंडर्ड के अनुसार मानवाधिकारों का सम्मान सुनिश्चित करने पर आधारित हैं, जिसमें अभिव्यक्ति की स्वतंत्रता भी शामिल है. उनके अनुसार कंपनियों के पास “समझने योग्य नियम और पॉलिसी” होनी चाहिए, जिसमें “ऐसे कंटेंट को लेकर विस्तृत मार्गदर्शन और उदाहरण होने चाहिए जिनकी परमिशन है और जिनकी नहीं है.”
हर कंटेंट पॉलिसी को अलग से देखने से पहले, बोर्ड ने Instagram कम्युनिटी गाइडलाइन और Facebook कम्युनिटी स्टैंडर्ड के बीच संबंध को स्पष्ट रूप से बताने के लिए Meta को दिए गए इसके पिछले सुझावों पर ध्यान दिया, (“स्तन कैंसर के लक्षण और नग्नता” वाला केस, 2020-004-IG-UA-2 और “ओजलान के पृथकीकरण” वाला केस, 2021-006-IG-UA-10), और Meta पर इस सुझाव को लागू करने की प्रक्रिया को जल्द से जल्द पूरी करने के लिए ज़ोर दिया.
हिंसक और आपत्तिजनक कंटेंट
बोर्ड ने हिंसक और आपत्तिजनक कंटेंट पॉलिसी में इसके तहत यूज़र्स आपत्तिजनक कंटेंट का ज़रिए जागरूकता कैसे बढ़ा सकते हैं, यह अस्पष्ट होने की अपनी चिंता को दोहराया. इस केस में, Meta की “दूसरे के दुख में मज़े लेने” की परिभाषा के तहत कैप्चर किए गए कंटेंट के बारे में और भी चिंताएँ हैं.
“सूडान के आपत्तिजनक वीडियो” वाले केस के फ़ैसले में, बोर्ड ने कहा कि:
हिंसक और आपत्तिजनक कंटेंट पॉलिसी यह स्पष्ट नहीं करती कि Meta दुर्व्यवहार के प्रति जागरूकता फैलाने और उसे डॉक्यूमेंट करने वाले आपत्तिजनक कंटेंट को शेयर करने की परमिशन किस तरह देता है. कम्युनिटी स्टैंडर्ड बनाने का कारण, जो पॉलिसी के लक्ष्य तय करता है, वह पॉलिसी के नियमों से मेल नहीं खाता. पॉलिसी बनाने के कारण में यह कहा गया है कि Meta मानवाधिकार हनन के बारे में “जागरूकता फैलाने में लोगों की मदद करने के लिए” यूज़र्स को आपत्तिजनक कंटेंट पोस्ट करने की परमिशन देता है, लेकिन खुद पॉलिसी “लोगों या मृत शरीरों के गैर-चिकित्सीय अवस्थाओं में लिए गए वीडियो पोस्ट करने पर रोक लगाती है, अगर उसमें अंग-विच्छेद दिखाया गया हो” (भले ही उसका कारण जागरूकता फैलाना हो या नहीं).”
बोर्ड ने सुझाव दिया कि Meta अपनी पॉलिसी में संशोधन करें ताकि जागरूकता फैलाने या मानवाधिकार हनन को डॉक्यूमेंट करने के लिए लोगों और मृत शरीर की फ़ोटो को ख़ास तौर से परमिशन मिल सके. बोर्ड ने यह भी सुझाव दिया कि Meta उस उद्देश्य से शेयर किए गए वीडियो की पहचान के लिए मापदंड तैयार करे. Meta ने कहा कि वह ऐसे सुझावों को लागू कर पाने की संभावनाओं का आकलन कर रहा है और पॉलिसी बनाने की प्रक्रिया भी शुरू करेगा ताकि तय किया जा सके कि उन्हें लागू किया जा सकता है या नहीं. Meta ने अपने पॉलिसी बनाने का कारण को भी “पॉलिसी में शामिल सभी तरह के एन्फ़ोर्समेंट एक्शन का वर्णन देना सुनिश्चित करने के लिए और अपवाद वाले आपत्तिजनक कंटेंट और मज़े लेने वाले कमेंट को हटाने के बारे में स्पष्टीकरण शामिल करने के लिए ” अपडेट किया है. हालाँकि, बोर्ड ने ध्यान दिया कि इस पॉलिसी के तहत क्या पोस्ट किया जा सकता है और क्या नहीं, इसके नियमों में अभी भी इस बात को लेकर स्पष्टता नहीं है कि “जागरूकता फैलाने” के लिए ऐसे कंटेंट को कैसे पोस्ट किया जा सकता है, जिसकी आम तौर पर परमिशन नहीं होती है.
बोर्ड ने यह भी ध्यान दिया कि जब बोर्ड ने केस को चुनने के बारे में सार्वजनिक घोषणा की और कंपनी को सवाल भेजे, तब Meta ने “दूसरे के दुख में मज़े लेने” वाले कमेंट की परमिशन नहीं होने के अपने मौजूदा नियम का संदर्भ शामिल करने के लिए अपने पॉलिसी बनाने का कारण को अपडेट किया. हालाँकि, यह शब्द अभी भी सार्वजनिक रूप से परिभाषित नहीं है, क्योंकि पॉलिसी में केवल उस तरह के कंटेंट की लिस्ट शामलि है, जिस पर यूज़र्स मज़े लेने वाले कमेंट नहीं कर सकते. बोर्ड को “दूसरे के दुख में मज़े लेने” के वाक्यांश के आम उपयोग में इरादतन दुराचार और गंभीरता के जो अर्थ समझ आते हैं, जो मॉडरेटर्स के लिए Meta के आंतरिक मार्गदर्शन, ज्ञात सवाल, के साथ संगत नहीं हैं. आंतरिक मार्गदर्शन के अनुसार Meta ने “दूसरे के दुख में मज़े लेने” को व्यापक रूप से किसी भी मज़ाकिया रेस्पॉन्स या किसी व्यक्ति या जानवर की परेशानी के बारे में सकारात्मक बात को शामिल करते हुए परिभाषित किया है. यह कंटेंट हटाने के लिए, सभी लोगों को उपलब्ध पॉलिसी में बताए गए नियमों की तुलना में बहुत ही कम मापदंड है.
धमकी और उत्पीड़न
Meta की धमकी और उत्पीड़न पॉलिसी के तहत, कंपनी ऐसे कंटेंट की परमिशन नहीं देती जो किसी व्यक्ति विशेष की मृत्यु या गंभीर चोट का मज़ाक बनाए. बोर्ड को ऐसा नहीं लगता कि यह नियम बनाने से इस केस की वैध चिंताएँ पैदा हुई हैं.
खतरनाक लोग और संगठन
इस पॉलिसी के टियर 1 के तहत, Meta निर्धारित “उल्लंघन करने वाले ईवेंट” की प्रशंसा की परमिशन नहीं देता, इस कैटेगरी में आतंकी हमले, “कई लोगों को पीड़ित करने वाली हिंसा और कई हत्याएँ” शामिल हैं. बोर्ड ने ध्यान दिया कि Meta जिस ईवेंट को निर्धारित करता है, उसकीं सभी के सामने घोषणा कब हो, इसे लेकर कंपनी की कोई संगत पॉलिसी नहीं है. इस जानकारी के बिना, यूज़र्स कई बार यह नहीं जान पाते कि उनके कंटेंट को क्यों हटाया गया.
II. वैधानिक लक्ष्य
अभिव्यक्ति की स्वतंत्रता पर प्रतिबंधों का एक वैधानिक लक्ष्य होना चाहिए, जिसमें दूसरे लोगों के अधिकारों की रक्षा शामिल है, जैसे इस कंटेट में दिखाए गए, पहचाने जा सकने वाले पीड़ित व्यक्ति की प्राइवेसी का अधिकार, इसमें मृत व्यक्ति भी शामिल हैं (सामान्य कमेंट 34, पैरा. 28).
बोर्ड ने इस केस में जिन तीन पॉलिसी पर विचार किया है, उनका आकलन पहले किया है और तय किया कि हर एक का दूसरों के अधिकारों की सुरक्षा करने का एक वैध लक्ष्य है. हिंसक और आपत्तिजनक कंटेंट पॉलिसी का “सूडान के आपत्तिजनक वीडियो” वाले केस में आकलन किया गया था, धमकी और उत्पीड़न की पॉलिसी का आकलन “रूस में नवालनी के समर्थन में हुए विरोध प्रदर्शन” वाले केस में किया गया था और खतरनाक लोग और संगठन की पॉलिसी का “न्यूज़ रिपोर्टिंग में तालिबान का उल्लेख” वाले केस में आकलन किया गया था.
III. आवश्यकता और आनुपातिकता
अभिव्यक्ति पर प्रतिबंध "उनके सुरक्षात्मक कार्य को पूरा करने के लिए उपयुक्त होने चाहिए; वे अपना सुरक्षात्मक कार्य कर सकने वाले उपायों में से कम से कम हस्तक्षेप करने वाले उपाय होने चाहिए; [और] वे सुरक्षित रखे जाने वाले हितों के अनुपात में होने चाहिए” (सामान्य कमेंट 34, पैरा. 34).
बोर्ड ने “सूडान के आपत्तिजनक वीडियो” के फ़ैसले और “रूसी कविता” वाले फ़ैसले में इस बात पर चर्चा की है कि चेतावनी स्क्रीन अभिव्यक्ति पर अनुपातिक प्रतिबंधित हैं या नहीं. आपत्तिजनक हिंसा की प्रकृति और गंभीरता उन फ़ैसलों को लेने में निर्णायक रही हैं और Meta के मानवाधिकार उत्तरदायित्व, कंपनी की बताई गई कंटेंट पॉलिसी और उन्हें लागू किए जाने के विरोधाभासी रहे हैं. “रूसी कविता” केस एक ऐसी फ़ोटो के बारे में था, जिसे दूर से लिया गया था और उसे देखने पर वह मृत शरीर जैसा लग रहा था. इसमें चेहरा दिखाई नहीं दे रहा था, न ही व्यक्ति की पहचान हो रही थी और हिंसा के कोई ऐसे कोई संकेत नहीं दिख रहे थे जो आपत्तिजनक हों. उस केस में, बोर्ड ने पाया कि चेतावनी स्क्रीन की ज़रूरत नहीं थी. इसके विपरीत, “सूडान के आपत्तिजनक वीडियो” वाले केस में ऐसा वीडियो था जिसमें अंग-भंग और अंदरूनी अंग काफ़ी पास से दिख रहे थे. उस मामले में, बोर्ड ने पाया कि कंटेंट काफ़ी हद तक आपत्तिजनक था और चेतावनी स्क्रीन का लगाया जाना सही थी. बाद वाला फ़ैसला ख़बर में रहने लायक संबंधी छूट पर आधारित था, जिससे किसी अन्य स्थिति में उल्लंघन करने वाला माने गए कंटेंट को परमिशन दी जाती है. इसे इसलिए उपयोग किया गया क्योंकि इस बारे में पॉलिसी स्पष्ट नहीं थी कि इसे ऐसे कंटेंट की परमिशन देने के लिए कैसे लागू किया जा सकता है जो मानवाधिकार हनन को लेकर जागरूकता फैलाता है.
फ़िलहाल के केस में, बोर्ड इससे सहमत है कि, हैशटैग हटाकर, पीड़ितों और उनके परिवारों के प्राइवेसी के अधिकार की रक्षा के लिए चेतावनी स्क्रीन ज़रूरी थी, ख़ासकर इसलिए क्योंकि पीड़ितों के चेहरे दिखाई दे रहे थे और हमले की जगह मालूम थी. इससे पीड़ितों की पहचान की जा सकती है और इसी वजह से यह उनकी और उनके परिवारों की प्राइवेसी के अधिकारों के मामले में ज़्यादा प्रासंगिक है. मृत्यु का चित्रण भी “रूसी कविता” वाले केस की तुलना में काफ़ी आपत्तिजनक है, जिसमें खून से लथपथ शरीर बहुत करीब से दिखाए गए हैं. हालाँकि, कोई अंग-भंग या “अंदरूनी अंग” नहीं दिख रहे हैं. अगर इनमें से कोई भी चीज़ कंटेंट में मौजूद होती, तो उसे हटा दिया जाता या ख़बर में रहने लायक छूट के तहत प्लेटफ़ॉर्म पर परमिशन दी जाती. हालाँकि चेतावनी स्क्रीन कंटेंट की पहुँच और उसके साथ इंटरैक्शन को कम कर देगी, लेकिन अभिव्यक्ति का सम्मान करने के साथ ही दूसरों के अधिकारों का सम्मान करने के लिए यह एक आनुपातिक उपाय है.
बोर्ड के अधिकतर मेंबर्स ने पाया कि कंटेंट को हटाना यूज़र की अभिव्यक्ति की स्वतंत्रता पर ज़रूरी और आनुपातिक प्रतिबंध नहीं था और इसे “परेशान करने वाला कंटेंट” की चेतावनी स्क्रीन के साथ रीस्टोर किया जाना चाहिए. अधिकतर मेंबर्स ने पाया कि हैशटैग जोड़ने से पीड़ितों, बचे हुए लोगों या उनके परिवारों के प्राइवेसी के अधिकार का हनन होने का जोखिम नहीं बढ़ता है, क्योंकि काफ़ी हद तक ऐसा ही फ़ुटेज पहले से Instagram पर चेतावनी स्क्रीन के साथ मौजूद है.
चेतावनी स्क्रीन लगाकर कंटेंट देखने वाले लोगों की संख्या बहुत कम करके, इस केस में पीड़ितों की प्राइवेसी बनी रहती है (जैसा कि ऐसे ही दूसरे वीडियो के साथ किया गया), साथ ही ईवेंट की चर्चा हो पाने की भी गुंजाइश रहती है, जिसे कुछ राज्य दबाने की कोशिश कर सकते हैं. जारी असुरक्षा के संदर्भों को देखते हुए, यह बहुत ज़रूरी है कि यूज़र्स हालिया स्थितियों के बारे में जागरूकता फ़ैला सकें, मानवाधिकार हनन को डॉक्यूमेंट कर सकें और अत्याचारों के लिए उत्तरदायित्व को प्रमोट कर सकें.
बोर्ड के अधिकतर मेंबर्स के लिए, पूरा कैप्शन, हैशटैग के साथ, मज़े लेने जैसा नहीं था और कंटेंट हटाने ज़रूरी और आनुपातिक मानने के लिए ज़्यादा स्पष्ट रूप से दिखने वाला मज़ाक या हिंसा की प्रशंसा होनी चाहिए.
बोर्ड के कुछ मेंबर्स, इस बारे में अधिकतर मेंबर्स के विश्लेषण के दृष्टिकोण और Meta की पॉलिसी को लेकर कुल विचारों के साथ सहमत हैं, लेकिन वे हैशटैग के अर्थ को लेकर और उनके मानवाधिकार विश्लेषण के परिणाम से असहमत हैं.
कुछ मेंबर्स के लिए, पोस्ट को हटाना Meta के मानवाधिकार उत्तरदायित्वों और आवश्यकता और आनुपातिकता के सिद्धांतों के अनुसार था. जब इस तरह के हमले वाले ईवेंट होते है, तो इस प्रकृति के वीडियो अक्सर ही वायरल होते हैं. इस केस में यूज़र के कई सारे फ़ॉलोअर्स थे. इस तरह की घटनाओं के जवाब में, यह ज़रूरी है कि Meta जल्दी से बड़े पैमाने पर एक्शन ले, जिसमें इंडस्ट्री पार्टनर के साथ सहयोग करना शामिल है, ताकि पीड़ितों, बचे हुए लोगों और उनके परिवारों के मानवाधिकारों के हनन को रोका और कम किया जा सके. इससे आतंक फैलने से निपटने की एक व्यापक सार्वजनिक उद्देश्य की भी पूर्ति होती है, जैसा कि इस तरह के हमले करने वाले दोषियों का मंतव्य रहता है, क्योंकि वे जानते है कि सोशल मीडिया से उनके मनोचिकित्सकीय प्रभाव बढ़ेंगे. कुछ मेंबर्स के लिए, यह मानवाधिकार के मामले में कम महत्वपूर्ण है कि यूज़र ने इस केस में हैशटैग का उपयोग मूल रूप से अपनी कम्युनिटी से कनेक्ट होने और अपनी पहुँच बढ़ाने के इरादे से किया. जुड़े हुए और व्यापक लोगों के लिए उन संबद्धताओं की वैल्यू, गैर-ज़रूरी नहीं है लेकिन बचे हुए लोगों और पीड़ितों की प्राइवेसी और गरिमा के अधिकार का सम्मान करने का महत्व कहीं ज़्यादा है. वीडियो में पीड़ितों के चेहरे, प्रार्थना करने की जगह पर, खून से लथपथ शरीर के साथ, काफ़ी करीब से दिखाई दे रहे हैं और पहचाने जा सकते हैं. इस दृश्य और कैप्शन में हथियारों से जुड़े मीलिट्री वाले हैशटैग के बीच विरोधाभास, विवादास्पद है और मज़ाक उड़ाने जैसा लगता है. पीड़ितों और उनके परिवारों के सामने ऐसा कंटेंट आने पर वे दोबारा पीड़ित हो सकते हैं, भले ही पोस्ट करने वाले यूज़र का ऐसा इरादा न हो.
कुछ मेंबर्स के लिए, यह बोर्ड के “सूडान के आपत्तिजनक वीडियो” वाले केस से अलग है, जहाँ हैशटैग में मानवाधिकार हनन को डॉक्यूमेंट करने का इरादा साफ़ ज़ाहिर किया गया है. हालाँकि जागरूकता फ़ैलाने के इरादे वाले स्पष्ट कथन, पॉलिसी के लिए आवश्यक नहीं होना चाहिए (बोर्ड के “वैमपम बेल्ट” और “न्यूज़ रिपोर्टिंग में तालिबान का उल्लेख” वाले फ़ैसले देखें), लेकिन हैशटैग हटाना Meta के मानवाधिकर उत्तरदायित्वों के साथ संगत है, क्योंकि यहाँ यूज़र ने शूटिंग में मारे गए लोगों की पहचानी जा सकने वाली फ़ोटो के साथ बिना किसी आलोचना के हथियारों के लिए उत्साह जगाया गया है. इन स्थितियों में, कुछ मेंबर्स का मानना है कि Meta को हटाने का ही फैसला लेना था.
9. ओवरसाइट बोर्ड का फ़ैसला
ओवरसाइट बोर्ड ने Meta के कंटेंट हटाने के फ़ैसले को बदल दिया और पोस्ट को “परेशान करने वाला” की चेतावनी स्क्रीन के साथ रीस्टोर करने के लिए कहा.
10. पॉलिसी से जुड़ी सलाह का कथन
कंटेंट पॉलिसी
1. Meta को हिंसक और आपत्तिजनक कंटेंट पॉलिसी की लोगों को बताई गई व्याख्या का रिव्यू करना चाहिए ताकि यह सुनिश्चित हो सके कि वह, पॉलिसी कैसे लागू की जाए इस बारे में कंपनी के आंतरिक मार्गदर्शन के अनुसार हो. बोर्ड इस सुझाव को तब लागू मानेगा जब पॉलिसी को परिभाषा और उदाहरण के साथ अपडेट कर दिया जाएगा, ठीक वैसे ही जैसे खतरनाक लोग और संगठन की पॉलिसी में Meta “प्रशंसा” की अवधारणा की व्याख्या करता है.
एन्फ़ोर्समेंट
2. Meta को Instagram यूज़र्स के कंटेंट पर चेतावनी स्क्रीन लगाए जाने पर उन्हें इस बारे में बताना चाहिए और वह ऐसा करने के पीछे मौजूद पॉलिसी के ख़ास कारण को भी बताए. बोर्ड इस सुझाव को तब लागू मानेगा जब Meta यह कन्फ़र्म कर देगा कि Instagram यूज़र्स को प्लेटफ़ॉर्म पर समर्थित सभी भाषाओं में नोटिफ़िकेशन भेजे जा रहे हैं.
*प्रक्रिया संबंधी नोट:
ओवरसाइट बोर्ड के फ़ैसले पाँच सदस्यों के पैनल द्वारा लिए जाते हैं और उन पर बोर्ड के अधिकांश सदस्यों की सहमति होती है. ज़रूरी नहीं है कि बोर्ड के फ़ैसले उसके हर एक मेंबर की निजी राय को दर्शाएँ.
इस केस के फ़ैसले के लिए, बोर्ड की ओर से स्वतंत्र शोध करवाया गया था. एक स्वतंत्र शोध संस्थान जिसका मुख्यालय गोथेनबर्ग यूनिवर्सिटी में है और छह महाद्वीपों के 50 से भी ज़्यादा समाजशास्त्रियों के साथ ही दुनिया भर के देशों के 3,200 से भी ज़्यादा विशेषज्ञों की टीम ने अपने विश्लेषण दिए. बोर्ड ने Duco Advisors से सहायता ली, जो जियो-पॉलिटिक्स, विश्वास और सुरक्षा और टेक्नोलॉजी के तालमेल पर काम करने वाली सलाहकार फ़र्म है और Memetica से भी सहायता ली, जो कि डिजिटल जाँच-पड़ताल करने वाला ऐसा ग्रुप है, जो जोखिम को लेकर सलाह देता है और खतरे के बारे में सचेत करता है.