सही ठहराया
सूडान का आपत्तिजनक वीडियो
ओवरसाइट बोर्ड ने Meta के उस फ़ैसले को कायम रखा है जिसमें उसने सूडान में एक नागरिक से हुई हिंसा को दिखाने वाली Facebook पोस्ट को रीस्टोर किया था.
केस का सारांश
ओवरसाइट बोर्ड ने Meta के उस फ़ैसले को कायम रखा है जिसमें उसने सूडान में एक नागरिक से हुई हिंसा को दिखाने वाली Facebook पोस्ट को रीस्टोर किया था. कंटेंट से लोगों में मानवाधिकार हनन के प्रति जागरूकता बढ़ी थी और उसमें लोगों ने बहुत दिलचस्पी ली थी. बोर्ड ने सुझाव दिया कि Meta, हिंसक और आपत्तिजनक कंटेंट कम्युनिटी स्टैंडर्ड में मानवाधिकार हनन के प्रति जागरूकता लाने या उन्हें डॉक्यूमेंट करने के लिए एक ख़ास अपवाद जोड़े.
केस की जानकारी
21 दिसंबर 2021 को Meta ने बोर्ड को एक आपत्तिजनक वीडियो से संबंधित केस रेफ़र किया, जिसमें सूडान में हिंसा के शिकार एक आम नागरिक को दिखाया गया था. वह कंटेंट 25 अक्टूबर 2021 को देश में सैन्य तख्तापलट के बाद यूज़र के Facebook प्रोफ़ाइल पेज पर पोस्ट किया गया था.
वीडियो में कार के पास लेटे हुए एक व्यक्ति को दिखाया गया है, जिसके सिर पर गहरी चोट थी और उसकी एक आँख निकाल दी गई थी. बैकग्राउंड में अरबी भाषा में लोगों को यह कहते सुना जा सकता है कि किसी को पीटकर सड़क पर छोड़ दिया गया है. अरबी में भी दिए गए कैप्शन में लोगों को साथ रहने और सेना पर भरोसा न करने के लिए कहा जाता है. हैशटैग में सेना के दुर्व्यवहार और सामूहिक प्रतिरोध का रेफ़रेंस दिया गया है.
Meta के ऑटोमेटेड सिस्टम द्वारा पकड़े जाने और मानव मॉडरेटर द्वारा रिव्यू किए जाने के बाद, पोस्ट को Facebook के हिंसक और आपत्तिजनक कंटेंट के कम्युनिटी स्टैंडर्ड का उल्लंघन करने के कारण हटा दिया गया था. यूज़र की ओर से अपील किए जाने के बाद, Meta ने पोस्ट की ख़बरों में रहने लायक प्रकृति को समझते हुए उसे 29 अक्टूबर 2021 को हटाए जाने से छूट दे दी. एक आंतरिक ग़लतफ़हमी के चलते Meta ने लगभग पाँच हफ़्ते बाद तक कंटेंट को रीस्टोर नहीं किया. जब Meta ने पोस्ट को रीस्टोर किया, तो उसने वीडियो पर चेतावनी स्क्रीन लगा दी.
मुख्य निष्कर्ष
बोर्ड, Meta के Facebook पर चेतावनी स्क्रीन के साथ इस कंटेंट को रीस्टोर करने के फ़ैसले से सहमत है. हालाँकि, Meta की हिंसक और आपत्तिजनक कंटेंट की पॉलिसी में यह स्पष्ट नहीं है कि दुर्व्यवहार के प्रति जागरूकता लाने या उसे डॉक्यूमेंट करने के लिए आपत्तिजनक कंटेंट को यूज़र किस तरह शेयर कर सकते हैं.
कम्युनिटी स्टैंडर्ड बनाने का कारण, जो पॉलिसी के लक्ष्य तय करता है, पॉलिसी के नियमों से मेल नहीं खाता. पॉलिसी बनाने के कारण में यह कहा गया है कि Meta मानवाधिकार हनन के बारे में “जागरूकता फैलाने में लोगों की मदद करने के लिए” यूज़र्स को आपत्तिजनक कंटेंट पोस्ट करने की परमिशन देता है, लेकिन ख़ुद पॉलिसी “लोगों या मृत शरीरों के गैर-चिकित्सीय अवस्थाओं में लिए गए वीडियो पोस्ट करने पर रोक लगाती है, अगर उसमें अंग-विच्छेद दिखाया गया हो” (भले ही उसका कारण जागरूकता फैलाना हो).
बोर्ड ने यह भी कहा कि भले ही इस केस में उपयोग किया गया हो, ख़बरों में रहने लायक प्रकृति के आधार पर Facebook पर इस पैमाने पर इस तरह के कंटेंट को परमिशन देना कोई असरदार कारण नहीं है. Meta ने बोर्ड को बताया कि उसने “पिछले 12 महीनों में (8 मार्च 2022 के पहले के 12 महीने) हिंसक आपत्तिजनक कंटेंट पॉलिसी के संबंध में ख़बरों में रहने लायक प्रकृति के आधार पर 17 परमिशन डॉक्यूमेंट की हैं. इस केस का कंटेंट उन 17 परमिशन में से एक के अंतर्गत आता है.” अगर तुलना करें, तो Meta ने 2021 की पहली तीन तिमाही में इस कम्युनिटी स्टैंडर्ड के आधार पर कंटेंट के 90.7 मिलियन हिस्से हटाए हैं.
बोर्ड ने पाया कि इस बात की बहुत कम संभावना है कि एक वर्ष में इस पॉलिसी से जुड़े कंटेंट के सिर्फ़ 17 भागों को ख़बरों में रहने लायक प्रकृति के आधार पर और जनहित में प्लेटफ़ॉर्म पर बने रहने की परमिशन दी जाए. यह पक्का करने के लिए कि Facebook पर ऐसे कंटेंट को परमिशन मिले, बोर्ड ने Meta को यह सुझाव दिया कि वह अपनी हिंसक और आपत्तिजनक कंटेंट कम्युनिटी स्टैंडर्ड में बदलाव करे और लोगों या मृत शरीरों के ऐसे वीडियो को परमिशन दे जिन्हें जागरूकता फैलाने या दुर्व्यवहार को डॉक्यूमेंट करने के उद्देश्य से शेयर किया गया हो.
Meta को पूरी दुनिया से आने वाले विवादों और संकट की स्थितियों पर तुरंत और नियमानुसार प्रतिक्रिया करने के लिए भी तैयार रहना चाहिए. “पूर्व राष्ट्रपति ट्रंप का सस्पेंशन” पर बोर्ड के फ़ैसले में सुझाव दिया गया था कि Meta “एक ऐसी पॉलिसी बनाए और प्रकाशित करे जो संकट की स्थितियों पर Facebook की प्रतिक्रिया की निगरानी करे.” Meta ने कहा कि उसने इस प्रोटोकॉल को अंगीकार कर लिया है और बोर्ड ने इसे बनाने का स्वागत किया, लेकिन कंपनी को इस प्रोटोकॉल को जल्दी से जल्दी लागू करना चाहिए और इस बारे में ज़्यादा से ज़्यादा जानकारी देनी चाहिए कि यह कैसे काम करेगा.
ओवरसाइट बोर्ड का फ़ैसला
ओवरसाइट बोर्ड ने नाबालिगों को कंटेंट देखने से रोकने वाली चेतावनी स्क्रीन के साथ पोस्ट को रीस्टोर करने का Meta का फ़ैसला कायम रखा.
पॉलिसी से जुड़े सुझाव देते हुए बोर्ड ने कहा कि Meta:
- हिंसक और आपत्तिजनक कंटेंट कम्युनिटी स्टैंडर्ड में बदलाव करे और ऐसे लोगों या मृत शरीरों के वीडियो दिखाने की परमिशन दे जहाँ उनका उद्देश्य मानवाधिकार हनन के बारे में जागरूकता फैलाना या उन्हें डॉक्यूमेंट करना हो. इन कंटेंट को एक चेतावनी स्क्रीन के साथ परमिशन दी जानी चाहिए ताकि लोगों को पता हो कि कंटेंट परेशान करने वाला हो सकता है.
- एक ऐसी पॉलिसी बनाए जिसकी शर्तें लोगों या मृत शरीरों के ऐसे वीडियो की पहचान करें जिनका उद्देश्य मानवाधिकार हनन के बारे में जागरूकता फैलाना या उन्हें डॉक्यूमेंट करना हो.
- ख़बरों में रहने लायक आधार पर दी जाने वाली परमिशन के डिस्क्रिप्शन में यह स्पष्ट करे कि वह इस पॉलिसी के आधार पर कौन सी एक्शन ले सकता है (उदाहरण के लिए, चेतावनी स्क्रीन के साथ रीस्टोर करना).
- कंटेंट रीस्टोर करने या चेतावनी स्क्रीन लगाने सहित ख़बरों में रहने लायक आधार पर यूज़र के कंटेंट पर कोई एक्शन लिए जाने पर उन्हें सूचित करे. यूज़र को दिए जाने वाले नोटिफ़िकेशन को ख़बरों में रहने लायक आधार पर दी जाने वाली परमिशन के ट्रांसपेरेंसी सेंटर के स्पष्टीकरण से लिंक किया जा सकता है.
*केस के सारांश से केस का ओवरव्यू पता चलता है और आगे के किसी फ़ैसले के लिए इसको आधार नहीं बनाया जा सकता है.
केस का पूरा फ़ैसला
1. फ़ैसले का सारांश
ओवरसाइट बोर्ड ने वीडियो वाली Facebook पोस्ट को कैप्शन के साथ रीस्टोर करने का फ़ैसला कायम रखा जिसमें सूडान में एक नागरिक पर हुई हिंसा दिखाई गई थी. पोस्ट को ख़बरों में रहने लायक आधार पर दी जाने वाली परमिशन के तहत रीस्टोर किया गया और उसमें एक चेतावनी स्क्रीन लगाई गई जो कंटेंट को संवेदनशील बनाती थी, उसे नाबालिगों द्वारा सामान्य तौर पर एक्सेस करने से रोकती थी और सभी अन्य यूज़र्स को कंटेंट देखने के लिए उस चेतावनी स्क्रीन को क्लिक करके आगे जाना होता था. बोर्ड ने पाया कि यह कंटेंट, जिसे मानवाधिकार हनन के प्रति जागरूकता फैलाने या उसे डॉक्यूमेंट करने के उद्देश्य से बनाया गया था, लोगों की अत्यधिक दिलचस्पी का विषय था. भले ही शुरुआत में कंटेंट को हटाना, हिंसक और आपत्तिजनक कंटेंट कम्युनिटी स्टैंडर्ड के नियमों के अनुसार सही था, लेकिन संवेदनशीलता स्क्रीन के साथ कंटेंट को रीस्टोर करने का Meta का फ़ैसला उसकी पॉलिसी, वैल्यू और मानवाधिकार ज़िम्मेदारियों के अनुरूप था.
हालाँकि, बोर्ड ने कहा कि ख़बरों में रहने लायक आधार पर दी जाने वाली परमिशन का Meta द्वारा उपयोग इस तरह के पैमाने पर कंटेंट पर नज़र रखने या उसे रीस्टोर करने के लिए प्रभावी साधन नहीं है. इसलिए बोर्ड ने सुझाव दिया कि Meta, हिंसक और आपत्तिजनक कंटेंट कम्युनिटी स्टैंडर्ड में दुर्व्यवहार के प्रति जागरूकता लाने या उन्हें डॉक्यूमेंट करने के लिए एक ख़ास अपवाद जोड़े. बोर्ड ने यह भी कहा कि अंतरराष्ट्रीय कानून के उल्लंघन का साक्ष्य हो सकने वाले कंटेंट के कलेक्शन, संरक्षण और शेयरिंग पर पॉलिसी बनाने के उसके पुराने सुझाव को Meta प्राथमिकता से कार्यान्वित करे.
2. केस का डिस्क्रिप्शन और बैकग्राउंड
21 दिसंबर 2021 को Meta ने बोर्ड को एक आपत्तिजनक वीडियो से संबंधित केस रेफ़र किया, जिसमें सूडान में हिंसा के शिकार एक आम नागरिक को दिखाया गया था. 25 अक्टूबर 2021 को देश में सैन्य तख्तापलट और सेना द्वारा सत्ता हथियाने का विरोध शुरू होने के बाद इस कंटेंट को 26 अक्टूबर 2021 को एक यूज़र के Facebook प्रोफाइल पेज पर पोस्ट किया गया था.
वीडियो में कार के पास लेटे हुए एक व्यक्ति को दिखाया गया है, जिसके सिर पर गहरी चोट थी और उसकी एक आँख निकाल दी गई थी. बैकग्राउंड में अरबी भाषा में लोगों को यह कहते सुना जा सकता है कि किसी को पीटकर सड़क पर छोड़ दिया गया है. अरबी में भी दिए गए कैप्शन में लोगों को साथ रहने और सेना पर भरोसा न करने के लिए कहा जाता है. हैशटैग में सेना के दुर्व्यवहार और सामूहिक प्रतिरोध का रेफ़रेंस दिया गया है.
Meta ने बताया कि टेक्नोलॉजी ने कंटेंट को उसी दिन 26 अक्टूबर 2021 को संभावित रूप से उसके हिंसक और आपत्तिजनक कंटेंट कम्युनिटी स्टैंडर्ड का उल्लंघन करने वाला माना जिस दिन उसे पोस्ट किया गया था. ह्यूमन रिव्यू के बाद Meta ने पाया कि उसने Facebook की हिंसक और आपत्तिजनक कंटेंट पॉलिसी का उल्लंघन किया है और उसे हटा दिया गया. कंटेंट क्रिएटर ने उसके बाद फ़ैसले से असहमति दिखाई. 28 अक्टूबर 2021 को कंटेंट को अतिरिक्त रिव्यू के लिए पॉलिसी और विषय विशेषज्ञों के पास भेज दिया गया. रिव्यू के बाद, Meta ने पोस्ट को ख़बरों में रहने लायक आधार पर 29 अक्टूबर 2021 को हिंसक और आपत्तिजनक कंटेंट पॉलिसी से छूट दे दी और उसका निष्कासन निरस्त कर दिया. हालाँकि, एक आंतरिक ग़लतफ़हमी के चलते Meta ने लगभग पाँच हफ़्ते बाद तक, 2 दिसंबर 2021 तक कंटेंट को रीस्टोर नहीं किया. जब उसने कंटेंट को रीस्टोर किया, तो उसने वीडियो पर एक चेतावनी स्क्रीन भी लगाई, जिसमें इसे संवेदनशील कंटेंट चिह्नित करके यूज़र्स को कहा गया कि यह कंटेंट देखने के लिए उन्हें स्क्रीन पर क्लिक करना होगा. चेतावनी स्क्रीन 18 वर्ष से कम उम्र के यूज़र्स को वह वीडियो देखने से रोकती है.
पोस्ट को 1,000 से कम बार देखा गया और किसी भी यूज़र ने इस कंटेंट की रिपोर्ट नहीं की.
नीचे दिया गया तथ्यात्मक बैकग्राउंड बोर्ड के फ़ैसले के लिए प्रासंगिक है. संयुक्त राष्ट्र मानवाधिकार उच्चायुक्त कार्यालय के अनुसार सूडान में चुनी गई सरकार के अक्टूबर 2021 में सैन्य तख्तापलट और लोगों द्वारा विरोध शुरू होने के बाद, देश में सुरक्षा बलों ने हथियार चलाए, आँसू गैस का उपयोग किया और प्रदर्शनकारियों को मनमाने ढंग से गिरफ़्तार और कैद किया. सुरक्षा बलों ने पत्रकारों और कार्यकर्ताओं को भी निशाना बनाया और उनके घरों और ऑफ़िसों की तलाशी ली. पत्रकारों पर हमले किए गए, उन्हें गिरफ़्तार और कैद किया गया.
बोर्ड ने जिन विशेषज्ञों से बात की, उनके अनुसार सरकारी मीडिया पर सेना के नियंत्रण और सूडानी पेपरों और ब्रॉडकास्टरों पर कार्रवाई के कारण सोशल मीडिया जानकारी का महत्वपूर्ण सोर्स और सेना द्वारा की गई हिंसा को डॉक्यूमेंट करने की जगह बन गया था. सेना ने 25 अक्टूबर 2021 को सरकार के चुने गए सदस्यों को गिरफ़्तार कर लिया और इंटरनेट को बंद कर दिया और देश में तब से इंटरनेट की निर्बाध एक्सेस में बार-बार रुकावट डाली जा रही है.
3. ओवरसाइट बोर्ड की अथॉरिटी और स्कोप
बोर्ड के पास उन फ़ैसलों को रिव्यू करने का अधिकार है, जिन्हें Meta रिव्यू के लिए सबमिट करता है (चार्टर अनुच्छेद 2, सेक्शन 1; उपनियम अनुच्छेद 2, सेक्शन 2.1.1). बोर्ड Meta के फ़ैसले को कायम रख सकता है या उसे बदल सकता है (चार्टर अनुच्छेद 3, सेक्शन 5) और उसका फ़ैसला कंपनी पर बाध्यकारी होता है (चार्टर अनुच्छेद 4). Meta को मिलते-जुलते संदर्भ वाले समान कंटेंट पर अपने फ़ैसले को लागू करने की संभावना का भी आकलन करना चाहिए (चार्टर अनुच्छेद 4). बोर्ड के फ़ैसलों में गैर-बाध्यकारी सलाहों के साथ पॉलिसी से जुड़े सुझाव हो सकते हैं, जिन पर Meta को जवाब देना होगा (चार्टर अनुच्छेद 3, सेक्शन 4; अनुच्छेद 4).
4. अथॉरिटी के सोर्स
ओवरसाइट बोर्ड ने अथॉरिटी के नीचे दिए गए सोर्स पर विचार किया:
I.ओवरसाइट बोर्ड के फ़ैसले:
पिछले फ़ैसलों में, बोर्ड ने Meta की पॉलिसी और प्रोसेस पर विचार किया और उन पर सुझाव दिए. सबसे प्रासंगिक सुझावों में ये शामिल हैं:
- केस का फ़ैसला 2021-010-FB-UA (“कोलंबिया विरोध प्रदर्शन”): इस मामले में, बोर्ड ने कहा कि Meta, ख़बरों में रहने लायक आधार पर परमिशन देने के लिए (जो कि स्टैंडर्ड को लागू करने का एकमात्र ज़रिया है) कंटेंट को रिव्यू के लिए आगे भेजने की अपनी शर्तें सार्वजनिक रूप से उपलब्ध नहीं कराता और कहा कि “ऐसे वातावरण में जहाँ राजनीतिक अभिव्यक्ति के माध्यम सीमित हैं, सोशल मीडिया ने विरोध प्रदर्शन के बारे में जानकारी शेयर करने के लिए पत्रकारों सहित सभी लोगों को एक प्लेटफ़ॉर्म उपलब्ध कराया है.” बोर्ड ने सुझाव दिया कि Meta “लोकरुचि वाले कंटेंट का अतिरिक्त रिव्यू करवाने के लिए कंटेंट रिव्यूअर के लिए स्पष्ट शर्तें बनाए और उन्हें सार्वजनिक करे... इन मापदंडों में राजनैतिक मुद्दों पर बड़े विरोध को दर्शाने वाला कंटेंट शामिल होना चाहिए, ख़ास तौर पर उन संदर्भों में जहाँ राज्यों पर मानवाधिकारों का उल्लंघन करने का आरोप लगाया जाता है और जहाँ घटनाओं का सार्वजनिक रिकॉर्ड बनाए रखना बहुत महत्वपूर्ण है.”
- केस का फ़ैसला 2021-001-FB-FBR (“पूर्व राष्ट्रपति ट्रंप का सस्पेंशन”): इस केस में, बोर्ड ने सुझाव दिया कि Meta “ऐसी पॉलिसी बनाकर उसे प्रकाशित करे जो ऐसे संकटों या नई तरह की स्थितियों को लेकर Facebook की प्रतिक्रिया को नियंत्रित करे, जहाँ इसकी सामान्य प्रोसेस के ज़रिए तात्कालिक नुकसान से बचना मुश्किल होगा.” जनवरी 2022 में, Meta ने “संकट पॉलिसी प्रोटोकॉल” पर एक पॉलिसी फ़ोरम आयोजित किया जिसे बोर्ड के सुझाव के जवाब में बनाया गया था. हालाँकि, Meta ने बोर्ड द्वारा पूछे गए सवालों में से एक के जवाब में यह कन्फ़र्म किया कि यह प्रोटोकॉल सूडान में तख्तापलट और उसके बाद इस केस में कंटेंट को हटाने और रीस्टोर करने के समय मौजूद नहीं था.
II.Meta की कंटेंट पॉलिसी:
Facebook के कम्युनिटी स्टैंडर्ड:
अपनी हिंसक और आपत्तिजनक कंटेंट पॉलिसी से जुड़े कारण के तहत, Meta कहता है कि वह ऐसे किसी भी कंटेंट को हटा देता है, जिसमें “हिंसा को सही ठहराया जाता है या किसी की पीड़ा पर खुशी जाहिर की जाती है” लेकिन ऐसा आपत्तिजनक कंटेंट दिखाने की परमिशन देता है जो “लोगों में जागरूकता बढ़ाने में मदद करता है.” पॉलिसी के नियम “गैर-चिकित्सीय परिस्थितियों में लोगों या मृत शरीरों को दिखाने वाले ऐसे वीडियो पोस्ट करने पर रोक लगाती है, जिनमें अंग-विच्छेद दिखाया जाता है.” अपनी ख़बरों में रहने लायक आधार पर परमिशन के अनुसार, Meta अपने प्लेटफ़ॉर्म पर कम्युनिटी स्टैंडर्ड का उल्लंघन करने वाले कंटेंट को तब परमिशन दे देता है, जब वह ख़बरों में रहने लायक हो और “जब उसे दिखाना लोकहित में हो.”
III. Meta की वैल्यू:
Meta की वैल्यू के बारे में Facebook के कम्युनिटी स्टैंडर्ड के परिचय सेक्शन में बताया गया है. इस केस में प्रासंगिक वैल्यू “वॉइस,” “प्राइवेसी” और “गरिमा” हैं. इनमें “वॉइस” की वैल्यू को “सर्वोपरि” बताया गया है:
हमारे कम्युनिटी स्टैंडर्ड का लक्ष्य हमेशा एक ऐसा प्लेटफ़ॉर्म बनाना रहा है, जहाँ लोग अपनी बात रख सकें और अपनी भावनाओं को व्यक्त कर सकें. [हम चाहते] हैं कि लोग अपने लिए महत्व रखने वाले मुद्दों पर खुलकर बातें कर सकें, भले ही कुछ लोग उन बातों पर असहमति जताएँ या उन्हें वे बातें आपत्तिजनक लगें.
Meta "वॉइस” को चार अन्य मूल्यों के मामले में सीमित करता है, जिनमें से दो यहाँ प्रासंगिक हैं.
“सुरक्षा”: लोगों को धमकाने वाले कंटेंट से लोगों में डर, अलगाव या चुप रहने की भावना आ सकती है और इसलिए Facebook पर ऐसा कंटेंट पोस्ट करने की अनुमति नहीं है.
“प्राइवेसी”: हम लोगों की प्राइवेसी और निजी जानकारी की सुरक्षा के लिए प्रतिबद्ध हैं. प्राइवेसी होने पर लोग अपने मन की बातें बिना झिझके कर सकते हैं, यह चुन सकते हैं कि उन्हें कोई चीज़ Facebook पर कब और कैसे शेयर करनी है और वे लोगों से और भी आसानी से जुड़ पाते हैं.
“गरिमा”: हमारा मानना है कि सभी लोगों को एक जैसा सम्मान और एक जैसे अधिकार मिलने चाहिए. हम उम्मीद करते है कि लोग एक-दूसरे की गरिमा का ध्यान रखेंगे और दूसरों को परेशान नहीं करेंगे या नीचा नहीं दिखाएँगे.
IV: अंतरराष्ट्रीय मानवाधिकार स्टैंडर्ड:
बिज़नेस और मानवाधिकारों के बारे में संयुक्त राष्ट्र संघ के मार्गदर्शक सिद्धांत (UNGP), जिन्हें 2011 में संयुक्त राष्ट्र संघ की मानवाधिकार समिति ने स्वीकृति दी है, प्राइवेट बिज़नेस की मानवाधिकार से जुड़ी ज़िम्मेदारियों का स्वैच्छिक ढाँचा तैयार करते हैं. 2021 में Meta ने मानवाधिकारों से जुड़ी अपनी कॉर्पोरेट पॉलिसी की घोषणा की, जिसमें उसने UNGP के अनुसार मानवाधिकारों का ध्यान रखने की अपनी प्रतिज्ञा को दोहराया. इस केस में बोर्ड ने Meta की मानवाधिकार से जुड़ी ज़िम्मेदारियों का विश्लेषण इन मानवाधिकार स्टैंडर्ड को ध्यान में रखते हुए किया.
- अभिव्यक्ति की आज़ादी का अधिकार, जिसमें जानकारी माँगना और पाना शामिल है: अनुच्छेद 19, नागरिक और राजनैतिक अधिकारों पर अंतरराष्ट्रीय प्रतिज्ञापत्र (ICCPR); सामान्य कमेंट सं. 34, मानव अधिकार समिति, 2011; विचार और अभिव्यक्ति की आज़ादी पर संयुक्त राष्ट्र का विशेष प्रतिवेदक, रिपोर्ट: A/HRC/38/35 (2018) और A/73/348 (2018).
- बच्चे का सबसे बेहतर हित: अनुच्छेद 13 और 17, बाल अधिकारों पर समझौता (CRC); सामान्य कमेंट सं. 25, बाल अधिकारों पर समिति, 2021 डिजिटल वातावरण के संबंध में बच्चों के अधिकार पर.
- प्राइवेसी का अधिकार: अनुच्छेद 17, ICCPR.
- प्रभावी उपाय की एक्सेस: अनुच्छेद 2, ICCPR; सामान्य कमेंट सं. 31, मानवाधिकार समिति, (2004); UNGP, सिद्धांत 22, 29, 31.
5. यूज़र सबमिशन
Meta के रेफ़रल और बोर्ड द्वारा केस स्वीकार करने के फ़ैसले के बाद, यूज़र को बोर्ड के रिव्यू की सूचना का मैसेज भेजा गया और उन्हें बोर्ड के सामने कथन सबमिट करने का मौका दिया गया. यूज़र ने कोई कथन सबमिट नहीं किया.
6. Meta के सबमिशन
अपने रेफ़रल में, Meta ने कहा कि इस कंटेंट के बारे में फ़ैसला लेना इसलिए कठिन था क्योंकि यह मानवाधिकार हनन के डॉक्यूमेंटेशन जैसे सार्वजनिक हित और ऐसे आपत्तिजनक कंटेंट को शेयर करने से जुड़े नुकसान के जोखिम के बीच के तनाव को दिखाता है. Meta ने तख्तापलट और देश में इंटरनेट एक्सेस बंद रहने के दौरान यूज़र्स को मानवाधिकार हनन को डॉक्यूमेंट करने की परमिशन देने के महत्व को भी हाइलाइट किया.
Meta ने बोर्ड को यह भी बताया कि सूडान में सैन्य तख्तापलट के तुरंत बाद Meta ने स्थिति की निगरानी करने और उभरते ट्रेंड और जोख़िमों के बारे में बताने के लिए आपदा प्रतिक्रिया परस्पर-क्रियाशील टीम बनाई. Meta के अनुसार, “विरोध प्रदर्शन के सबसे एक्टिव रहते समय इस टीम को ग्राफ़िक हिंसा और हिंसा और उकसावे को दिखाने वाले कंटेंट की रिपोर्ट में वृद्धि दिखाई दी. [टीम] को ग्राफ़िक हिंसा की ऐसी घटनाओं को एस्केलेट करने के लिए कहा गया था जिससे आपत्तिजनक और हिंसक कंटेंट पॉलिसी का अन्यथा उल्लंघन होता. इसमें सरकार द्वारा समर्थित मानवाधिकार हनन दिखाने वाला कंटेंट शामिल है.”
Meta ने कहा कि इस वीडियो को बड़े पैमाने पर हो रहे विरोध प्रदर्शन और सूडान में प्रेस की आज़ादी से जुड़ी वास्तविक चिंताओं के संदर्भ में देखा गया. Meta ने यह भी कहा कि इस तरह का कंटेंट “उस एरिया में मौजूद यूज़र्स को उनकी सुरक्षा को खतरे के प्रति सचेत कर सकता था और यह इंटरनेट बंद होने की स्थिति में ख़ास तौर पर महत्वपूर्ण था जहाँ पत्रकारों की लोकेशन की एक्सेस सीमित हो सकती थी.”
Meta ने यह भी कहा कि कंटेंट को रीस्टोर करने का फ़ैसला उनकी वैल्यू के अनुरूप था, ख़ास तौर पर “वॉइस” की वैल्यू जो सर्वोपरि है. Meta ने बोर्ड के पुराने फ़ैसलों का हवाला दिया जिनमें कहा गया था कि “वॉइस” की वैल्यू में राजनैतिक बयानबाज़ी सबसे महत्वपूर्ण भाग है. केस का फ़ैसला 2021-010-FB-UA (“कोलंबिया विरोध प्रदर्शन”); 2021-003-FB-UA (“भारत में RSS पर पंजाबी चिंता”); 2021-007-FB-UA (“म्यांमार बॉट”); और 2021-009-FB-UA (“Al Jazeera की शेयर की गई पोस्ट”).
Meta ने बोर्ड को कहा कि उसने पाया कि कंटेंट को हटाने का उसका शुरुआती फ़ैसला ICCPR के अनुच्छेद 19 के अनुरूप नहीं था, ख़ास तौर पर अनिवार्यता के सिद्धांत के. इसलिए, ख़बरों में रहने लायक आधार पर उसने कंटेंट को रीस्टोर करें कर दिया. रीस्टोर करने के बाद आपत्तिजनक कंटेंट को प्लेटफ़ॉर्म पर रहने की परमिशन देने से जुड़े नुकसान के संभावित जोख़िम को दूर करने के लिए, Meta ने उसकी एक्सेस 18 वर्ष से ज़्यादा उम्र के लोगों तक सीमित कर दी और उसके साथ एक चेतावनी स्क्रीन लगा दी. Meta ने केस के बारे में कारण बताते हुए यह भी कहा कि कंटेंट को बहाल करने का फ़ैसला विचार और अभिव्यक्ति की आज़ादी पर संयुक्त राष्ट्र के विशेष प्रतिवेदक की रिपोर्ट के अनुरूप था, ख़ास तौर पर “मानवाधिकार हनन पर जानकारी को एक्सेस करने के अधिकार” के.
Meta ने यह भी कहा कि चूँकि उसने ऐसी चेतावनी स्क्रीन लगाई जो 18 वर्ष से कम उम्र के लोगों को कंटेंट देखने से रोकती है, इसलिए उसने बच्चों के अधिकारों पर फ़ैसले के असर पर भी विचार किया. Meta ने बोर्ड को बताया कि बच्चों के अभिव्यक्ति के अधिकार की सुरक्षा करने के लिए अपना फ़ैसला लेते समय उसने बाल अधिकारों पर समझौते के अनुच्छेद 13 और डिजिटल वातावरण के संबंध में बाल अधिकारों की सामान्य कमेंट सं. 25 पर विचार किया जिसमें “सीमा पर ध्यान दिए बिना सभी तरह की जानकारी और विचार ढूँढने, पाने और देने की आज़ादी” शामिल है. Meta ने केस के बारे में कारण बताते हुए कहा कंटेंट को सिर्फ़ बालिगों को दिखाने के उसके फ़ैसले से नाबालिगों की सुरक्षा की रक्षा करने का विधिसम्मत लक्ष्य पूरा हुआ और वह उस लक्ष्य के लिए यथोचित था.
बोर्ड ने Meta से 21 सवाल पूछे. Meta ने 17 का पूरा और 4 का आंशिक जवाब दिया. आंशिक जवाब प्लेटफ़ॉर्म पर मौजूद कंटेंट Meta के ऑटोमेटेड सिस्टम के असर का मूल्यांकन करने और इस बात से जुड़े थे कि हिंसक और आपत्तिजनक कंटेंट कम्युनिटी स्टैंडर्ड में जागरूकता फैलाने संबंधी अपवाद क्यों नहीं है.
7. पब्लिक कमेंट
बोर्ड को इस केस के संबंध में पाँच पब्लिक कमेंट मिले. दो कमेंट यूरोप से, एक कमेंट सब-सहारन अफ़्रीक से और दो कमेंट अमेरिका और कनाडा से.
सबमिशन में ये थीम शामिल थीं: ज़्यादा संदर्भ संवेदी दृष्टिकोण अपनाने की ज़रूरत जो सशस्त्र विरोध वाले क्षेत्रों में कंटेंट हटाने की ऊँची सीमा सेट करे ताकि कम कंटेंट हटाया जाए; भविष्य की संभावित जाँच और मानवाधिकार का उल्लंघन करने वाले लोगों को ज़िम्मेदार ठहराने के लिए सामग्री को सुरक्षित रखने की ज़रूरत; और यह कि ख़बरों में रहने लायक आधार पर दी जाने वाली परमिशन एड-हॉक तरीके से लागू होगी और उसे चुनौती दी जा सकेगी और यह कि इस व्यवहार पर फिर से विचार नहीं किया जाना चाहिए.
मार्च 2022 में, साझेदार के निरंतर एंगेजमेंट के भाग के रूप में, बोर्ड ने मानवाधिकार हनन, शैक्षणिक रिसर्च नीति, मानवाधिकार और डॉक्यूमेंटेशन की रिपोर्ट करने और उसे डॉक्यूमेंट करने वाले लगभग 50 हिमायती संगठनों के प्रतिनिधियों और व्यक्तियों और हिंसक और आपत्तिजनक कंटेंट कम्युनिटी स्टैंडर्ड और संकट या विरोध के संदर्भ में उसके एन्फ़ोर्समेंट में होने वाली समस्याओं पर बोर्ड के साथ एंगेज होने में दिलचस्पी रखने वाले साझेदारों से बात की. स्पष्ट चर्चा सुनिश्चित करने और शामिल होने वाले लोगों की रक्षा करने के लिए, ये निरंतर एंगेजमेंट चैटम हाउस नियम के तहत किए जाते हैं. चर्चा में कई थीम पर बात हुई जिनमें मानवाधिकार हनन को डॉक्यूमेंट करने के लिए दमनकारी शासन द्वारा नियंत्रित देशों में सोशल मीडिया की महत्वपूर्ण भूमिका और सरकार समर्थित हिंसा पर अंतरराष्ट्रीय मीडिया और लोगों का ध्यान खींचना शामिल है; उसमें इस बात पर चिंता जताई गई कि हिंसक और आपत्तिजनक कंटेंट का व्यवहार में मौजूद यूनिवर्सल स्टैंडर्ड, अमेरिका पर फ़ोकस स्टैंडर्ड है; और यह देखा गया कि चेतावनी स्क्रीन का उपयोग आघात की असली समस्या को दूर करने में उपयोगी है, हालाँकि कुछ संगठनों ने यह कहा कि चेतावनी स्क्रीन से उनके कंटेंट की पहुँच कम हो सकती है.
इस केस को लेकर लोगों की ओर से सबमिट किए गए कमेंट देखने के लिए कृपया यहाँ क्लिक करें.
8. ओवरसाइट बोर्ड का विश्लेषण
बोर्ड ने इस सवाल पर तीन तरह ध्यान दिया कि क्या यह कंटेंट प्लेटफ़ॉर्म पर रहना चाहिए: Meta की कंटेंट पॉलिसी, कंपनी वैल्यू और मानवाधिकारों से जुड़ी उसकी ज़िम्मेदारियाँ.
8.1. Meta की कंटेंट पॉलिसी का अनुपालन
I.कंटेंट नियम
Meta द्वारा इस कंटेंट को चेतावनी स्क्रीन और उम्र संबंधी प्रतिबंध के साथ प्लेटफ़ॉर्म पर रीस्टोर करने के फ़ैसले से बोर्ड सहमत था, लेकिन उसने कहा कि Meta की कंटेंट पॉलिसी में स्पष्टता की कमी है और बड़े पैमाने पर इस तरह के कंटेंट के जवाब में इसे लागू करने का कोई असरदार साधन मौजूद नहीं है.
कंटेंट को हटाने का Meta का शुरुआती फ़ैसला उसकी हिंसक और आपत्तिजनक कंटेंट कम्युनिटी स्टैंडर्ड के नियमों के अनुरूप था – कंटेंट में गैर-चिकित्सीय संदर्भ में मानव अंग-विच्छेद दिखाकर पॉलिसी का उल्लंघन किया था (व्यक्ति के सिर पर गंभीर चोट थी और उसकी आँख निकली हुई थी). हालाँकि, हिंसक और आपत्तिजनक कंटेंट पॉलिसी बनाने का कारण कहता है कि “[Meta] ऐसे आपत्तिजनक कंटेंट को परमिशन देता है (कुछ सीमाओं के साथ) जो लोगों में समस्याओं को लेकर जागरूकता फैलाता है. [Meta] जानता है कि लोग मानवाधिकार हनन या आतंकवादी कृत्य जैसी महत्वपूर्ण समस्याओं पर चर्चा कर पाने की सुविधा की वैल्यू करते हैं.” पॉलिसी बनाने के कारण में इस रेफ़रेंस के बावजूद, कम्युनिटी स्टैंडर्ड में विशिष्ट नियमों में “जागरूकता फैलाने” का अपवाद शामिल नहीं है. Meta के रिव्यूअर्स के लिए उसके आंतरिक स्टैंडर्ड में भी मानवाधिकार हनन के प्रति जागरूकता फैलाने या उसे डॉक्यूमेंट करने वाले कंटेंट का अपवाद शामिल नहीं है.
कम्युनिटी स्टैंडर्ड में कोई विशेष अपवाद न होने के कारण, बोर्ड ने ख़बरों में रहने लायक आधार पर कंटेंट को रीस्टोर करने के Meta के फ़ैसले से सहमति जताई. Meta ने कहा कि वह उस स्थिति में उल्लंघन करने वाले कंटेंट को ख़बरों में रहने लायक आधार पर प्लेटफ़ॉर्म पर रहने की परमिशन देता है जब वह ख़बरों में रहने लायक हो और “जब लोकहित और नुकसान के जोख़िम की तुलना करने के बाद यह लगे कि उसे दिखाते रहना लोकहित में है.”
II.एन्फ़ोर्समेंट एक्शन
बोर्ड ने कहा कि भले ही Meta ने ख़बरों में रहने लायक आधार पर परमिशन देने का फ़ैसला किया और 29 अक्टूबर 2021 को चेतावनी स्क्रीन के साथ पोस्ट को रीस्टोर किया, लेकिन पोस्ट को लगभग पाँच हफ़्ते बाद तक, 2 दिसंबर 2021 तक प्लेटफ़ॉर्म पर रीस्टोर नहीं किया गया था. Meta ने कहा कि कंटेंट पर अंतिम फ़ैसले का कम्युनिकेशन उसके सामान्य एस्केलेशन मैनेजमेंट टूल के बाहर हुआ था, इसलिए “कंटेंट पर उपयुक्त एक्शन लेने में देरी हुई.” बोर्ड ने इस स्पष्टीकरण और देरी को चिंताजनक माना और इस बात पर ज़ोर दिया कि Meta सार्वजनिक संकट और प्रेस की आज़ादी पर गंभीर प्रतिबंध के संदर्भ में इस मामले जैसे फ़ैसले पर समयोचित एक्शन की महत्ता समझे. जब Meta ने शुरुआत में इस कंटेंट को हटाया, तो उसने यूज़र को 30 दिन तक नया कंटेंट बनाने से रोक दिया. यह वही समय था जब सड़कों पर मौजूद प्रदर्शनकारी और तख्तापलट की रिपोर्टिंग कर रहे पत्रकार और सैन्य कार्रवाई गंभीर हिंसा और दमन का सामना कर रहे थे.
8.2. Meta की वैल्यू का अनुपालन
बोर्ड ने समापन करते हुए कहा कि चेतावनी स्क्रीन के साथ इस कंटेंट को प्लेटफ़ॉर्म पर रखना Meta की “वॉइस” और “सुरक्षा” की वैल्यू के अनुसार है.
बोर्ड, मानवाधिकार हनन के शिकार लोगों की रक्षा करने के संदर्भ में “गरिमा” और “प्राइवेसी” की महत्ता समझता है. कंटेंट, वीडियो में मौजूद घायल व्यक्ति और उसके परिवार की गरिमा और प्राइवेसी पर असर डालता है; दिखाए गए व्यक्ति को पहचाना जा सकता है और वह व्यक्ति या उसके परिवार या प्रियजन ने शायद नहीं चाहा होगा कि उनका इस तरह का फ़ुटेज ब्रॉडकास्ट किया जाए.
बोर्ड ने इस संदर्भ में “सुरक्षा” की प्रासंगिकता का भी उल्लेख किया, जिसका लक्ष्य ऐसे कंटेंट से यूज़र्स की रक्षा करना है जो “लोगों की शारीरिक सुरक्षा को नुकसान का जोख़िम” उत्पन्न करता है. एक तरफ़, यूज़र चल रहे तख्तापलट के प्रति जागरूकता फैलाना चाहता था जो उस क्षेत्र में लोगों की सुरक्षा बेहतर बनाने में योगदान दे सकता था. दूसरी तरफ़, कंटेंट से वीडियो में दिखाए गए व्यक्ति और/या उसके परिवार के लिए जोख़िम भी उत्पन्न हो सकता था.
बोर्ड ने कहा कि जिस स्थिति में जन स्थानों और मीडिया की आज़ादी को सरकार द्वारा दबाया जाए, उस स्थिति में “वॉइस” की वैल्यू और भी महत्वपूर्ण हो जाती है. यहाँ, लोगों को जानकारी की एक्सेस देकर और सरकार की हिंसा को सबके सामने लाकर, “वॉइस” से “सुरक्षा” की वैल्यू भी बढ़ती है.
8.3. Meta की मानवाधिकारों से जुड़ी ज़िम्मेदारियों का अनुपालन
बोर्ड ने पाया कि चेतावनी स्क्रीन के साथ इस कंटेंट को प्लेटफ़ॉर्म पर रखना Meta की मानवाधिकार से जुड़ी ज़िम्मेदारियों के अनुसार है. हालाँकि, बोर्ड ने कहा कि Meta की पॉलिसी में बदलाव किए जाने चाहिए ताकि दुर्व्यवहार के प्रति जागरूकता फैलाना चाह रहे या उसे डॉक्यूमेंट करना चाह रहे यूज़र्स के लिए अभिव्यक्ति की आज़ादी बेहतर बने.
अभिव्यक्ति की स्वतंत्रता (अनुच्छेद 19 ICCPR)
ICCPR का अनुच्छेद 19, अभिव्यक्ति की आज़ादी की व्यापक रक्षा करता है जिसमें जानकारी माँगने और पाने का अधिकार शामिल है. हालाँकि, इस अधिकार को कुछ विशेष स्थितियों में प्रतिबंधित किया जा सकता है, जिसे वैधानिकता (स्पष्टता), वैधता और अनिवार्यता तथा समानुपातिकता का तीन-हिस्सों वाला टेस्ट कहते हैं. यद्यपि ICCPR, Meta को राज्यों की तरह जवाबदेह नहीं बनाता, लेकिन Meta, UNGP में निर्धारित मानवाधिकारों का सम्मान करने के लिए प्रतिबद्ध है. इस प्रतिबद्धता में अन्य साधनों के साथ ICCPR द्वारा तय किए गए अंतरराष्ट्रीय रूप से मान्य मानवाधिकार शामिल हैं.
I. वैधानिकता (नियमों की स्पष्टता और सुलभता)
अभिव्यक्ति की आज़ादी का कोई भी प्रतिबंध एक्सेस योग्य होना चाहिए और उसे यह स्पष्ट मार्गदर्शन देना चाहिए कि किन बातों की परमिशन है और किनकी नहीं. बोर्ड ने कहा कि हिंसक और आपत्तिजनक कंटेंट पॉलिसी यह स्पष्ट नहीं करती कि Meta दुर्व्यवहार के प्रति जागरूकता फैलाने और उसे डॉक्यूमेंट करने वाले आपत्तिजनक कंटेंट को शेयर करने की परमिशन किस तरह देता है. कम्युनिटी स्टैंडर्ड बनाने का कारण, जो पॉलिसी के लक्ष्य तय करता है, पॉलिसी के नियमों से मेल नहीं खाता. पॉलिसी बनाने के कारण में यह कहा गया है कि Meta मानवाधिकार हनन के बारे में “जागरूकता फैलाने में लोगों की मदद करने के लिए” यूज़र्स को आपत्तिजनक कंटेंट पोस्ट करने की परमिशन देता है, लेकिन ख़ुद पॉलिसी “लोगों या मृत शरीरों के गैर-चिकित्सीय अवस्थाओं में लिए गए वीडियो पोस्ट करने पर रोक लगाती है, अगर उसमें अंग-विच्छेद दिखाया गया हो” (भले ही उसका कारण जागरूकता फैलाना हो). Meta ने इस कंटेंट को रीस्टोर करने के लिए ख़बरों में रहने लायक आधार पर सही परमिशन दी, लेकिन हिंसक और आपत्तिजनक कंटेंट कम्युनिटी स्टैंडर्ड में यह स्पष्ट नहीं है कि क्या इस तरह के कंटेंट को प्लेटफ़ॉर्म पर परमिशन दी जाएगी.
बोर्ड ने यह भी कहा कि ख़बरों में रहने लायक आधार पर परमिशन देने से यह स्पष्ट नहीं है कि मानवाधिकार हनन या अत्याचार को डॉक्यूमेंट करने वाले कंटेंट को इस परमिशन का फ़ायदा कब मिलेगा. हम Meta की इस बात से सहमत हैं कि यह तय करना कि कंटेंट ख़बरों में रहने लायक है कि नहीं, “अत्यंत व्यक्तिपरक” हो सकता है, लेकिन जिस नियम की बात की जा रही है, उसे परिभाषित ही नहीं किया गया है. पॉलिसी में कहा गया है कि कंपनी “उस कंटेंट को विशेष महत्व देती है, जिसमें लोगों के स्वास्थ्य या सुरक्षा पर आने वाले खतरे दिखाए गए हों या जिससे राजनीतिक प्रक्रिया के रूप में फ़िलहाल बहस का विषय बने हुए दृष्टिकोणों की बात की गई हो. यह परमिशन देने में विवेकाधिकार के उपयोग के बारे में प्रतीकात्मक उदाहरण और स्पष्ट सिद्धांत दिए जाने चाहिए. इनके न होने पर, इसका उपयोग एक जैसा नहीं होगा और मनमाना दिखाई देगा. इसके अलावा, ख़बरों में रहने लायक आधार पर दी जाने वाली परमिशन में Meta की पॉलिसी का अन्यथा उल्लंघन करने वाले कंटेंट के लिए चेतावनी स्क्रीन (या अंतरालीय) के उपयोग का कोई रेफ़रेंस नहीं है.
अंत में, बोर्ड ने एक पुराने केस (“कोलंबिया विरोध प्रदर्शन”) में सुझाव दिया कि Meta “लोकरुचि वाले कंटेंट का अतिरिक्त रिव्यू करवाने के लिए कंटेंट रिव्यूअर के लिए स्पष्ट शर्तें बनाए और उन्हें सार्वजनिक करे.” Meta ने जवाब दिया कि उसने ख़बरों में रहने लायक कंटेंट के बारे में ट्रांसपेरेंसी सेंटर आर्टिकल के ज़रिए एस्केलेशन की शर्तें पहले ही सार्वजनिक कर दी हैं. हालाँकि, यह आर्टिकल उन कारणों पर फ़ोकस करता है जिन पर Meta ख़बरों में रहने लायक आधार पर परमिशन देते समय विचार करता है और इसमें मॉडरेटर के लिए वे शर्तें नहीं दी गई हैं कि कंटेंट को कब एस्केलेट करना है (जैसे इसे अतिरिक्त रिव्यू के लिए भेजना). अगर ख़बरों में रहने लायक आधार पर परमिशन देना कंपनी के व्यापक कंटेंट मॉडरेशन सिस्टम का एक भाग है, तो एस्केलेशन और उपयोग की प्रोसेस को उसका पालन करना चाहिए. बोर्ड ने कहा कि ख़बरों में रहने लायक आधार पर परमिशन कब और कैसे दी जाएगी, इस बारे में स्पष्टता में कमी होने से इस पॉलिसी का मनमाना उपयोग किया जाएगा.
II. वैधानिक लक्ष्य
अभिव्यक्ति की आज़ादी पर प्रतिबंधों का एक वैधानिक लक्ष्य होना चाहिए जिसमें दूसरे लोगों के अधिकारों की रक्षा शामिल है, जैसे दिखाए गए व्यक्ति की प्राइवेसी का अधिकार (सामान्य कमेंट 34, पैरा. 28) और शारीरिक अखंडता का अधिकार. Meta ने पॉलिसी बनाने के कारण में यह भी कहा कि “जो कंटेंट हिंसा की प्रशंसा करता है या अन्य लोगों की पीड़ा या अपमान की खुशियाँ मनाता है...उससे ऐसा वातावरण बन सकता है जहाँ लोग भाग लेने से डरें.” बोर्ड इस बात से सहमत था कि हिंसक और आपत्तिजनक कंटेंट पॉलिसी में कई वैधानिक लक्ष्य हैं.
III. आवश्यकता और आनुपातिकता
अभिव्यक्ति पर प्रतिबंध "उनके सुरक्षात्मक कार्य को पूरा करने के लिए उपयुक्त होने चाहिए; वे अपना सुरक्षात्मक कार्य कर सकने वाले उपायों में से कम से कम हस्तक्षेप करने वाले उपाय होने चाहिए; [और] वे सुरक्षित रखे जाने वाले हितों के अनुपात में होने चाहिए” (सामान्य कमेंट 34, पैरा. 34).
इस केस में, बोर्ड ने कहा कि कंटेंट पर चेतावनी वाला लेबल लगाना, अभिव्यक्ति की आज़ादी पर ज़रूरी और अनुपातिक प्रतिबंध था. चेतावनी स्क्रीन से उन लोगों पर अकारण बोझ नहीं पड़ता जो कंटेंट देखना चाहते हैं. इससे अन्य लोगों को कंटेंट की प्रकृति की जानकारी मिलती है और वे तय कर सकते हैं कि इसे देखना है या नहीं. चेतावनी स्क्रीन से दिखाए गए व्यक्ति और उसके परिवार की गरिमा की भी पर्याप्त रक्षा होती है.
बोर्ड ने यह भी कहा कि जैसे कि अनुच्छेद 8.1 में बताया गया है कि Meta ने पाँच हफ़्ते देरी से पोस्ट को रीस्टोर किया. इस देरी से सूडान में जारी हिंसा के संदर्भ में अभिव्यक्ति की आज़ादी और मीडिया पर प्रतिबंध के वातावरण पर गलत असर पड़ा. इतनी ज़्यादा देरी से इसका उद्देश्य कमज़ोर हो गया, जो नागरिकों को चेतावनी देना और जागरूकता फैलाना है.
बोर्ड ने यह भी कहा कि चूँकि ख़बरों में रहने लायक आधार पर कभी-कभार परमिशन दी जाती है, इसलिए यह इतने बड़े प्लेटफ़ॉर्म पर दुर्व्यवहार को डॉक्यूमेंट करने या जागरूकता फैलाना चाहने वाले कंटेंट को परमिशन देने का सही तरीका नहीं है. Meta ने बोर्ड को बताया कि उसने “पिछले 12 महीनों में (8 मार्च 2022 के पहले के 12 महीने) हिंसक आपत्तिजनक कंटेंट पॉलिसी के संबंध में ख़बरों में रहने लायक प्रकृति के आधार पर 17 परमिशन डॉक्यूमेंट की हैं. इस केस का कंटेंट उन 17 परमिशन में से एक के अंतर्गत आता है.” अगर तुलना करें, तो Meta ने 2021 की पहली तीन तिमाही में इस कम्युनिटी स्टैंडर्ड के आधार पर कंटेंट के 90.7 मिलियन हिस्से हटाए हैं. बोर्ड ने पाया कि इस बात की बहुत कम संभावना है कि पूरी दुनिया में एक वर्ष में इस पॉलिसी से जुड़े कंटेंट के सिर्फ़ 17 भागों को ख़बरों में रहने लायक प्रकृति के आधार पर और जनहित में प्लेटफ़ॉर्म पर बने रहने की परमिशन दी जाए. ख़बरों में रहने लायक आधार पर परमिशन देना, प्लेटफ़ॉर्म पर इस प्रकृति के कंटेंट को सुरक्षित रखने का पर्याप्त तरीका नहीं देता. संरक्षित अभिव्यक्तियों को सेंसर करने से बचने के लिए, Meta को हिंसक और आपत्तिजनक कंटेंट पॉलिसी को ही संशोधित करना चाहिए ताकि ऐसा कंटेंट प्लेटफ़ॉर्म पर बना रहे.
युद्ध या राजनैतिक अशांति की स्थिति में, यूज़र जागरूकता फैलाने या दुर्व्यवहार को डॉक्यूमेंट करने के लिए ज़्यादा मात्रा में आपत्तिजनक और हिंसक कंटेंट कैप्चर करेंगे और प्लेटफ़ॉर्म पर शेयर करेंगे. जवाबदेही बढ़ाने के लिए यह कंटेंट महत्वपूर्ण है. बोर्ड ने “पूर्व राष्ट्रपति ट्रंप का सस्पेंशन” केस में कहा कि Meta का उत्तरदायित्व है कि वह जानकारी कलेक्ट करे, उसे सुरक्षित रखे और उचित जगह पर शेयर करे ताकि अंतरराष्ट्रीय आपराधिक, मानवाधिकार और मानवीय कानून के गंभीर उल्लंघनों की सक्षम अधिकारियों और जवाबदेही तंत्र द्वारा जाँच कराई जा सके और संभावित अभियोग में सहायता की जा सके.” बोर्ड ने यह भी सुझाव दिया कि Meta अपने कॉर्पोरेट मानवाधिकार पॉलिसी प्रोटोकॉल में यह भी स्पष्ट करे और बताए कि अंतरराष्ट्रीय स्टैंडर्ड और डेटा प्रोटेक्शन कानूनों का पालन करते हुए रिसर्चर्स को पुराना सार्वजनिक कंटेंट कैसे उपलब्ध कराया जाए. जवाब में Meta ने कहा कि वे समस्या को दूर करने के जारी प्रयासों से बोर्ड को अवगत कराएगा. 5 मई 2021 को बोर्ड द्वारा यह सुझाव प्रकाशित किए जाने के बाद से अब तक Meta ने इस विषय पर कोई प्रगति रिपोर्ट नहीं की है. पूरी दुनिया में हिंसक संघर्ष (उदा. वर्तमान में यूक्रेन में जारी युद्ध जहाँ यूज़र्स दुर्व्यवहार को सोशल मीडिया के ज़रिए डॉक्यूमेंट कर रहे हैं) और राजनैतिक अशांति की स्थितियों में प्लेटफ़ॉर्म द्वारा निभाई जाने वाली भूमिका को देखते हुए, बोर्ड ने इतनी देरी और प्रगति में कमी को चिंताजनक माना.
अंत में बोर्ड ने “पूर्व राष्ट्रपति ट्रंप का सस्पेंशन” केस के सुझाव का फिर से उल्लेख करते हुए कहा कि Meta “ऐसी पॉलिसी बनाकर उसे प्रकाशित करे जो ऐसे संकटों या नई तरह की स्थितियों को लेकर Facebook की प्रतिक्रिया को नियंत्रित करे, जहाँ इसकी सामान्य प्रोसेस के ज़रिए तात्कालिक नुकसान से बचना मुश्किल होगा.” Meta ने ओवरसाइट बोर्ड के Q4 2021 अपडेट में रिपोर्ट किया कि बोर्ड के सुझाव के जवाब में कंपनी ने नए संकट प्रोटोकॉल का प्रस्ताव बना लिया है और उसे स्वीकार कर लिया गया है. Meta ने यह भी कहा कि वह जल्दी ही ट्रांसपेरेंसी सेंटर पर इस प्रोटोकॉल की जानकारी उपलब्ध कराएगा. Meta ने बोर्ड को बताया कि यह प्रोटोकॉल सूडान में तख्तापलट के समय मौजूद नहीं था और न ही वह इस केस के रिव्यू के समय काम कर रहा था. कंपनी की प्रोटोकॉल को 2022 के बचे हुए दिनों में लॉन्च करने की योजना है. अच्छी तरह बनाए गए प्रोटोकॉल से Meta को संकट की स्थितियों में ज़रूरी और समानुपातिक जवाब बनाने और उन्हें लागू करने में मदद मिलेगी. Meta इस प्रोटोकॉल को तेज़ी से लागू करेगा और इस बारे में ज़्यादा से ज़्यादा जानकारी उपलब्ध कराएगा कि यह प्रोटोकॉल किस तरह काम करेगा और वह Meta की मौजूदा प्रोसेस से किस तरह इंटरैक्ट करेगा. Meta के प्लेटफ़ॉर्म पूरी दुनिया में संघर्ष और संकट की स्थितियों में प्रमुख भूमिका निभाते हैं और कंपनी को गलतियों से बचने के लिए तेज़ी से और व्यवस्थिति तरीके से प्रतिक्रिया करने के लिए तैयार रहना चाहिए.
9. ओवरसाइट बोर्ड का फ़ैसला
ओवरसाइट बोर्ड ने Meta का फ़ैसला कायम रखा जिसमें सिर्फ़ 18 वर्ष से ज़्यादा उम्र के लोगों तक एक्सेस को सीमित रखने की स्क्रीन के साथ कंटेंट को बनाए रखा गया था.
10. पॉलिसी से जुड़ी सलाह का कथन
कंटेंट पॉलिसी
1. Meta को हिंसक और आपत्तिजनक कंटेंट कम्युनिटी स्टैंडर्ड में बदलाव करना चाहिए और ऐसे लोगों या मृत शरीरों के वीडियो दिखाने की परमिशन देना चाहिए जहाँ उनका उद्देश्य मानवाधिकार हनन के बारे में जागरूकता फैलाना या उन्हें डॉक्यूमेंट करना हो. इन कंटेंट को एक चेतावनी स्क्रीन के साथ परमिशन दी जानी चाहिए ताकि लोगों को पता हो कि कंटेंट परेशान करने वाला हो सकता है. बोर्ड इस सुझाव को तब लागू मानेगा जब Meta, कम्युनिटी स्टैंडर्ड को अपडेट करेगा.
2. Meta को एक ऐसी पॉलिसी बनाना चाहिए जिसकी शर्तें लोगों या मृत शरीरों के ऐसे वीडियो की पहचान करें जिनका उद्देश्य मानवाधिकार हनन के बारे में जागरूकता फैलाना या उन्हें डॉक्यूमेंट करना हो. बोर्ड इस सुझाव को तब लागू मानेगा जब Meta, पॉलिसी डेवलपमेंट प्रोसेस के निष्कर्ष प्रकाशित करेगा, जिसमें इस पैमाने पर इस कंटेंट को पहचानने की प्रोसेस और शर्तों की जानकारी शामिल है.
3. Meta को ख़बरों में रहने लायक आधार पर दी जाने वाली परमिशन के डिस्क्रिप्शन में यह स्पष्ट करना चाहिए कि वह इस पॉलिसी के आधार पर कौन सी एक्शन ले सकता है (उदाहरण के लिए, चेतावनी स्क्रीन के साथ रीस्टोर करना). बोर्ड इस सुझाव को तब लागू मानेगा जब Meta, पॉलिसी को अपडेट करेगा.
एन्फ़ोर्समेंट
4. यह पक्का करने के लिए कि यूज़र्स नियमों को समझते हैं, Meta को कंटेंट रीस्टोर करने या चेतावनी स्क्रीन लगाने सहित ख़बरों में रहने लायक आधार पर यूज़र के कंटेंट पर कोई एक्शन लिए जाने पर उन्हें सूचित करना चाहिए. यूज़र को दिए जाने वाले नोटिफ़िकेशन को ख़बरों में रहने लायक आधार पर दी जाने वाली परमिशन के ट्रांसपेरेंसी सेंटर के स्पष्टीकरण से लिंक किया जा सकता है. बोर्ड इसे तब लागू मानेगा जब Meta इस अपडेट किए गए नोटिफ़िकेशन को सभी मार्केट के यूज़र्स को भेजेगा और यह बताएगा कि यूज़र्स को एन्फ़ोर्समेंट डेटा के ज़रिए यह नोटिफ़िकेशन मिल रहा है.
*प्रक्रिया संबंधी नोट:
ओवरसाइट बोर्ड के फ़ैसले पाँच सदस्यों के पैनल द्वारा लिए जाते हैं और बोर्ड के अधिकांश सदस्य इन पर सहमति देते हैं. ज़रूरी नहीं है कि बोर्ड के फ़ैसले उसके हर एक मेंबर की निजी राय को दर्शाएँ.
इस केस के फ़ैसले के लिए, बोर्ड की ओर से स्वतंत्र रिसर्च करवाई गई थी. एक स्वतंत्र रिसर्च संस्थान जिसका मुख्यालय गोथेनबर्ग यूनिवर्सिटी में है और जिसे छह महाद्वीपों के 50 से भी ज़्यादा समाजशास्त्रियों की टीम के साथ ही दुनिया भर के देशों के 3,200 से भी ज़्यादा विशेषज्ञों ने सामाजिक-राजनैतिक और सांस्कृतिक संदर्भ में विशेषज्ञता मुहैया कराते हैं. बोर्ड को Duco Advisers की सहायता भी मिली, जो भौगोलिक-राजनैतिक, विश्वास और सुरक्षा और टेक्नोलॉजी के आपसी संबंध पर काम करने वाली एक एडवाइज़री फ़र्म है.