पलट जाना
“दो बटन” वाला मीम
ओवरसाइट बोर्ड ने Facebook के नफ़रत फैलाने वाली भाषा से जुड़े कम्युनिटी स्टैंडर्ड के तहत एक कमेंट हटाने के उसके फ़ैसले को बदल दिया है.
कृपया ध्यान दें, यह फ़ैसला तुर्की (इस स्क्रीन के सबसे ऊपर मौजूद मेनू से एक्सेस किए जाने वाले 'भाषा' टैब के ज़रिए) और आर्मेनियाई (इस लिंक के ज़रिए), दोनों भाषा में उपलब्ध है.
Որոշման ամբողջական տարբերակը հայերենով կարդալու համար սեղմեք այստեղ.
केस का सारांश
ओवरसाइट बोर्ड ने Facebook के नफ़रत फैलाने वाली भाषा से जुड़े कम्युनिटी स्टैंडर्ड के तहत एक कमेंट हटाने के उसके फ़ैसले को बदल दिया है. बोर्ड के अधिकांश सदस्यों ने पाया कि यह नफ़रत फैलाने की निंदा करने या इस बारे में जागरूकता बढ़ाने वाले कंटेंट के लिए Facebook के अपवाद के अंतर्गत था.
केस की जानकारी
24 दिसंबर 2020 को अमेरिका के एक Facebook यूज़र ने एक कमेंट पोस्ट किया जिसमें ‘डेली स्ट्रगल’ या ‘दो बटन’ वाले मीम का रूपांतरण था. इसमें ओरिजनल 'दो बटन' वाले मीम का स्प्लिट-स्क्रीन कार्टून दिखाया गया था, लेकिन इसमें कार्टून कैरेक्टर के चेहरे के बजाय तुर्की का झंडा दिखाई दे रहा था. कार्टून कैरेक्टर का सीधा हाथ उसके सिर पर था और उसका पसीना बहता दिखाई दे रहा था. कैरेक्टर के ऊपर, स्प्लिट-स्क्रीन के दूसरे भाग में दो लाल बटन मौजूद हैं, जिनके अंग्रेज़ी भाषा में अपने-अपने बयान हैं: "आर्मेनियाई नरसंहार एक झूठ है" और "आर्मेनियाई लोग आतंकवादी थे और उनका यही हश्र होना था."
एक कंटेंट मॉडरेटर ने पाया कि मीम से Facebook के नफ़रत फैलाने वाली भाषा से जुड़े कम्युनिटी स्टैंडर्ड का उल्लंघन हुआ था, लेकिन दूसरे ने पाया कि उससे क्रूरता और असंवेदनशीलता से जुड़े उसके कम्युनिटी स्टैंडर्ड का उल्लंघन हुआ था. Facebook ने क्रूरता और असंवेदनशीलता से जुड़े अपने कम्युनिटी स्टैंडर्ड के तहत कमेंट हटा दिया और यूज़र को इसकी सूचना दी.
हालाँकि, यूज़र की अपील के बाद, Facebook ने पाया कि कंटेंट को उसके नफ़रत फैलाने वाली भाषा से जुड़े कम्युनिटी स्टैंडर्ड के तहत हटाया जाना चाहिए था. कंपनी ने यूज़र को यह नहीं बताया कि उसने किसी दूसरे कम्युनिटी स्टैंडर्ड के तहत अपने फ़ैसले को कायम रखा.
मुख्य निष्कर्ष
Facebook ने कहा कि उसने कमेंट इसलिए हटा दिया क्योंकि वाक्य "आर्मेनियाई आतंकवादी थे जो इसके हकदार थे," में आर्मेनियाई लोगों की राष्ट्रीयता और जाति के आधार पर दावे किए गए थे कि वे अपराधी थे. Facebook के अनुसार, इससे नफ़रत फैलाने वाली भाषा से जुड़े उसके कम्युनिटी स्टैंडर्ड का उल्लंघन हुआ था.
Facebook ने यह भी कहा कि मीम उस अपवाद के अंतर्गत नहीं था जिसके तहत यूज़र्स घृणास्पद कंटेंट की निंदा करने या उसे लेकर जागरूकता बढ़ाने के लिए उसे शेयर कर सकते हैं. कंपनी ने दावा किया कि कार्टून कैरेक्टर को मीम में दिखाए गए दो बयानों की निंदा करने या उन्हें अपनाने के रूप में देखा जा सकता है.
हालाँकि, बोर्ड के अधिकांश सदस्यों ने यह माना कि कंटेंट इस अपवाद के अंतर्गत आता था. 'दो बटन' वाले मीम में दो अलग-अलग विकल्पों के बीच उनका समर्थन करने के लिए नहीं, बल्कि उनके संभावित अंतर्विरोध को दर्शाने के लिए अंतर बताया जाता है. इसी तरह, उन्होंने पाया कि यूज़र ने आर्मेनियाई नरसंहार को नकारने और वहीं उन ऐतिहासिक अत्याचारों को सही भी ठहराने से जुड़ी तुर्की सरकार की करतूतों को लोगों के सामने लाने और उनकी निंदा करने के लिए वह मीम शेयर किया था. बोर्ड के अधिकांश सदस्यों ने एक पब्लिक कमेंट पर ध्यान दिया, जिसमें कहा गया था कि उस मीम में "नरसंहार का शिकार हुए लोगों का मज़ाक नहीं उड़ाया गया, लेकिन उस समय तुर्की के लोगों में इस घटना से इनकार करने की आदत का मज़ाक उड़ाया गया था और साथ ही यह भी कहा गया है कि नरसंहार नहीं हुआ था और शिकार हुए लोगों के साथ ऐसा ही होना चाहिए था." बोर्ड के अधिकांश सदस्यों ने यह भी माना कि कंटेंट को Facebook के व्यंग्य से जुड़े अपवाद में शामिल किया जा सकता है, जो कम्युनिटी स्टैंडर्ड में शामिल नहीं है.
हालाँकि, बोर्ड के कुछ सदस्यों ने पाया कि यह बात पर्याप्त रूप से स्पष्ट नहीं हुई कि यूज़र ने तुर्की सरकार की आलोचना करने के लिए कंटेंट शेयर किया. चूँकि कंटेंट में आर्मेनियाई लोगों के बारे में एक हानिकारक सामान्यकरण शामिल था, इसलिए बोर्ड के कुछ सदस्यों ने पाया कि इसमें नफ़रत फैलाने वाली भाषा से जुड़े कम्युनिटी स्टैंडर्ड का उल्लंघन हुआ था.
इस केस में, बोर्ड ने नोट किया कि Facebook ने यूज़र को यह बताया कि उन्होंने क्रूरता और असंवेदनशीलता से जुड़े कम्युनिटी स्टैंडर्ड का उल्लंघन किया था, जबकि कंपनी का एन्फ़ोर्समेंट नफ़रत फैलाने वाली भाषा से जुड़े कम्युनिटी स्टैंडर्ड पर आधारित था. बोर्ड इस बात को लेकर भी चिंतित था कि क्या Facebook के मॉडरेटर्स के पास व्यंग्य वाले कंटेंट का रिव्यू करने के लिए ज़रूरी समय और रिसोर्स थे.
ओवरसाइट बोर्ड का फ़ैसला
ओवरसाइट बोर्ड ने Facebook के कंटेंट हटाने के फ़ैसले को बदल दिया और कमेंट को रीस्टोर करने के लिए कहा.
पॉलिसी से जुड़े सुझाव के कथन में बोर्ड ने सुझाव दिया कि Facebook:
- यूज़र्स को कंपनी द्वारा लागू कम्युनिटी स्टैंडर्ड के बारे में जानकारी दे. अगर Facebook यह तय करता है कि यूज़र के कंटेंट से उन्हें शुरुआत में बताए गए कम्युनिटी स्टैंडर्ड के बजाय किसी दूसरे कम्युनिटी स्टैंडर्ड का उल्लंघन हुआ है, तो उन्हें अपील करने का एक मौका और मिलना चाहिए.
- नफ़रत फैलाने वाली भाषा से जुड़े अपने कम्युनिटी स्टैंडर्ड में यूज़र्स के लिए आम भाषा में व्यंग्य से संबंधित अपवाद शामिल करे, जो इस समय उपलब्ध नहीं है.
- प्रासंगिक संदर्भ को ध्यान में रखते हुए व्यंग्यात्मक कंटेंट को सही ढंग से मॉडरेट करने की प्रक्रियाएँ अपनाए. इसमें कंटेंट मॉडरेटर्स को Facebook की लोकल ऑपरेशन टीम की एक्सेस देना और मूल्यांकन करने के लिए इन टीमों से विचार-विमर्श करने का पर्याप्त समय देना शामिल है.
- यूज़र्स को अपनी अपील में यह बताने दे कि उनका कंटेंट नफ़रत फैलाने वाली भाषा से जुड़ी पॉलिसी के किसी एक अपवाद के अंतर्गत आता है. इसमें व्यंग्यात्मक कंटेंट के अपवाद और वह स्थिति शामिल है, जिसमें यूज़र्स नफ़रत फैलाने वाले कंटेंट की निंदा करने या उसे लेकर जागरूकता बढ़ाने के लिए उसे शेयर करते हैं.
- यह सुनिश्चित करे कि पॉलिसी से जुड़े अपवादों पर आधारित अपीलों को ह्यूमन रिव्यू के लिए प्राथमिकता दी जाए.
*केस के सारांश से केस का ओवरव्यू पता चलता है और आगे के किसी फ़ैसले के लिए इसको आधार नहीं बनाया जा सकता है.
केस का पूरा फ़ैसला
1. फ़ैसले का सारांश
ओवरसाइट बोर्ड ने Facebook के नफ़रत फैलाने वाली भाषा से जुड़े कम्युनिटी स्टैंडर्ड के तहत कंटेंट हटाने के उसके फ़ैसले को बदल दिया है. बोर्ड के अधिकांश सदस्यों ने पाया कि व्यंग्यात्मक मीम के रूप में मौजूद कार्टून, नफ़रत फैलाने वाली भाषा से जुड़े कम्युनिटी स्टैंडर्ड के उस कंटेंट से संबंधित अपवाद के अंतर्गत था, जो नफ़रत फैलाने की निंदा करता है या इस बारे में जागरूकता बढ़ाता है.
2. केस का विवरण
24 दिसंबर 2020 को अमेरिका के एक Facebook यूज़र ने एक कमेंट पोस्ट किया जिसमें “डेली स्ट्रगल” या “दो बटन” वाले मीम का रूपांतरण था. मीम एक तरह की मीडिया फ़ाइल ही होती है, जो अक्सर हास्यपूर्ण होती है और इंटरनेट पर तेज़ी से फैलती है. इसमें ओरिजनल मीम का वैसा ही स्प्लिट-स्क्रीन कार्टून दिखाया गया था, लेकिन इसमें कार्टून कैरेक्टर के चेहरे के बजाय तुर्की का झंडा दिखाई दे रहा था. कार्टून कैरेक्टर का सीधा हाथ उसके सिर पर था और उसका पसीना बहता दिखाई दे रहा था. कैरेक्टर के ऊपर, स्प्लिट-स्क्रीन के दूसरे भाग में दो लाल बटन मौजूद हैं, जिनके अंग्रेज़ी भाषा में अपने-अपने बयान हैं: "आर्मेनियाई नरसंहार एक झूठ है" और "आर्मेनियाई लोग आतंकवादी थे और उनका यही हश्र होना था." उस मीम के पहले "सोचने वाले चेहरे" का इमोजी था.
यह कमेंट एक सार्वजनिक Facebook पेज पर शेयर किया गया था, जिसके बारे में वर्णन किया गया है कि यह एक ऐसा फ़ोरम है, जहाँ धर्मनिरपेक्ष दृष्टिकोण से धार्मिक मामलों पर चर्चा की जाती है. इसमें उस पोस्ट का जवाब दिया गया था जिसमें नकाब पहने एक व्यक्ति की फ़ोटो थी और अंग्रेज़ी भाषा में ओवरले टेक्स्ट भी था: “सभी कैदी सलाखों के पीछे नहीं हैं.” जिस समय यह कमेंट हटाया गया था, तब जिस शुरुआती पोस्ट के जवाब में यह कमेंट किया गया था, उसे 260 बार देखा गया था, 423 रिएक्शन मिले थे और उस पर 149 कमेंट किए गए थे. श्रीलंका के एक Facebook यूज़र ने नफ़रत फैलाने वाली भाषा से जुड़े कम्युनिटी स्टैंडर्ड का उल्लंघन करने के लिए कमेंट की रिपोर्ट की थी.
Facebook ने 24 दिसंबर 2020 को मीम हटा दिया. कुछ समय में, दो कंटेंट मॉडरेटर्स ने कंपनी की पॉलिसी के लिए कमेंट का रिव्यू किया और दोनों अलग-अलग निष्कर्ष पर पहुँचे. पहले कंटेंट मॉडरेटर ने यह निष्कर्ष निकाला कि मीम में Facebook की नफ़रत फैलानी वाला भाषा से जुड़ी पॉलिसी का उल्लंघन हुआ था, जबकि दूसरे ने बताया कि मीम में क्रूरता और असंवेदनशीलता से जुड़ी पॉलिसी का उल्लंघन हुआ था. दूसरे रिव्यू के आधार पर कंटेंट को हटा दिया गया और Facebook के सिस्टम में लॉग कर दिया गया. इस आधार पर Facebook ने यूज़र को सूचना दी कि उनका कमेंट "क्रूर और असंवेदनशील कंटेंट से संबंधित हमारे कम्युनिटी स्टैंडर्ड के विरुद्ध है."
यूज़र की अपील के बाद, Facebook ने अपना फ़ैसला कायम रखा लेकिन पाया कि कंटेंट को नफ़रत फैलाने वाली भाषा से जुड़ी उसकी पॉलिसी के तहत हटाया जाना चाहिए था. Facebook का मानना था कि "आर्मेनियाई आतंकवादी थे जो इसके हकदार थे", इस बयान से ऐसा दावा करने वाले कंटेंट पर लगाए गए प्रतिबंध का ख़ास तौर पर उल्लंघन हुआ था कि आतंकवादियों के साथ ही संरक्षित विशेषताओं वाले सभी सदस्य अपराधी होते हैं. कंटेंट के किसी भी अन्य हिस्से को उल्लंघन नहीं माना गया, जैसे यह दावा कि आर्मेनियाई नरसंहार एक झूठ था. Facebook ने यूज़र को यह सूचना नहीं दी कि उसने किसी दूसरे कम्युनिटी स्टैंडर्ड के तहत उनके कंटेंट को हटाने का फ़ैसला कायम रखा.
यूज़र ने 24 दिसंबर 2020 को ओवरसाइट बोर्ड के पास अपनी अपील सबमिट की.
आखिर में, इस केस में, बोर्ड ने 1915 से आर्मेनियाई लोगों के खिलाफ़ हुए अत्याचारों का नरसंहार के रूप में उल्लेख किया, क्योंकि यह शब्द आम तौर पर आर्मेनियाई लोगों के साथ हुई मार-काट और बड़े पैमाने पर देशान्तरण का वर्णन करने के लिए उपयोग किया जाता है और इसका उल्लेख उस कंटेंट में किया गया है जिसका रिव्यू चल रहा है. बोर्ड को ऐसे अत्याचारों को कानूनी रूप से योग्य ठहराने का अधिकार नहीं है और यह योग्यता इस फ़ैसले का विषय नहीं है.
3. प्राधिकार और दायरा
बोर्ड को उस यूज़र के अपील करने के बाद Facebook के फ़ैसले का रिव्यू करने का अधिकार है, जिसकी पोस्ट हटा दी गई थी (चार्टर अनुच्छेद 2, सेक्शन 1; उपनियम अनुच्छेद 2, सेक्शन 2.1). बोर्ड उस फ़ैसले को कायम रख सकता है या उसे बदल सकता है (चार्टर अनुच्छेद 3, सेक्शन 5). बोर्ड के फ़ैसले बाध्यकारी होते हैं और उनमें पॉलिसी से जुड़ी सलाह के कथनों के साथ सुझाव भी शामिल हो सकते हैं. ये सुझाव बाध्यकारी नहीं होते हैं, लेकिन Facebook को उनका जवाब देना होगा (चार्टर अनुच्छेद 3, सेक्शन 4). पारदर्शी और नैतिक तरीके से विवादों को सुलझाने के लिए यह बोर्ड एक स्वतंत्र शिकायत निवारण प्रणाली है.
4. प्रासंगिक स्टैंडर्ड
ओवरसाइट बोर्ड ने इन स्टैंडर्ड पर विचार करते हुए अपना फ़ैसला दिया है:
I. Facebook के कम्युनिटी स्टैंडर्ड
नफ़रत फैलाने वाली भाषा को Facebook के कम्युनिटी स्टैंडर्ड “लोगों की संरक्षित विशेषताओं – नस्ल, धर्म, राष्ट्रीय मूल, धार्मिक मान्यता, यौन अभिविन्यास, जाति, लिंग या लैंगिक पहचान और बीमारी या अक्षमता के आधार पर उन पर सीधे हमले” के रूप में परिभाषित करते हैं. "टियर 1" के तहत, प्रतिबंधित कंटेंट ("यह पोस्ट न करें") में ऐसा कंटेंट शामिल होता है, जिससे निम्न के साथ संरक्षित विशेषता के आधार पर किसी व्यक्ति या लोगों के समूह को टार्गेट किया जाता है:
- "[…] अपराधियों (जिनमें "चोर", "बैंक लूटेरे" या यह कहना शामिल है, लेकिन इसी तक सीमित नहीं है कि "सभी [संरक्षित विशेषता या अर्ध-संरक्षित विशेषता] 'अपराधी' हैं") से तुलनाओं, उनसे जुड़े सामान्यकरणों या उनके आचरण से जुड़े अनधिकृत बयानों (लिखित या विजुअल तरीके से) के रूप में अमानवीय भाषण या फ़ोटो."
- घृणित अपराधों की अवधारणा, घटनाओं या पीड़ितों का [म]ज़ाक उड़ाने वाले भाषण, भले ही फ़ोटो में किसी वास्तविक व्यक्ति को न दिखाया गया हो.
- “विध्वंस से जुड़ी जानकारी को [न]कारने या विकृत करने वाले भाषण.”
हालाँकि, Facebook ऐसे कंटेंट की परमिशन देता है, “जिसमें किसी अन्य व्यक्ति की नफ़रत फैलाने वाली भाषा होती है ताकि उसकी निंदा की जा सके या उसके बारे में जागरूकता बढ़ाई जा सके.” नफ़रत फैलाने वाली भाषा से जुड़े कम्युनिटी स्टैंडर्ड की पॉलिसी के तर्क के अनुसार, "हमारे स्टैंडर्ड का अन्यथा उल्लंघन करने वाली भाषा का उपयोग अपने लिए किसी संदर्भ के रूप में या सशक्त तरीके से किया जा सकता है. हमारी पॉलिसी इस तरह की भाषा की परमिशन देने का ध्यान रखते हुए ही तैयार की गई हैं, लेकिन यह ज़रूरी है कि लोग अपना इरादा साफ़ तौर पर बताएँ. उद्देश्य स्पष्ट न होने पर हम उनका कंटेंट हटा भी सकते हैं.”
इसके अलावा, बोर्ड ने Facebook के क्रूरता और असंवेदनशीलता से जुड़े कम्युनिटी स्टैंडर्ड पर ध्यान दिया, जो "गंभीर शारीरिक या भावनात्मक हानि के शिकार हुए लोगों” को टार्गेट करने वाले कंटेंट पर रोक लगाता है, जिसमें "शिकार हुए लोगों का मज़ाक उड़ाने की कोशिशें […] शामिल हैं, जिनमें से कई मीम और GIF का रूप ले लेती हैं." यह पॉलिसी ऐसे कंटेंट पर रोक लगाती है (“यह पोस्ट न करें”) जिसमें “दूसरों को दुखी करने वाले कमेंट हों और विजुअल या लिखित रूप से लोगों की असामयिक मृत्यु दिखाई गई हो.”
II. Facebook के मूल्य
Facebook के मूल्यों की रूपरेखा कम्युनिटी स्टैंडर्ड के परिचय सेक्शन में दी गई है. “अभिव्यक्ति” के महत्व को “सर्वोपरि” बताया गया है:
हमारे कम्युनिटी स्टैंडर्ड का लक्ष्य हमेशा एक ऐसा प्लेटफ़ॉर्म बनाना रहा है, जहाँ लोग अपनी बात रख सकें और अपनी भावनाओं को व्यक्त कर सकें. […] हम चाहते हैं कि लोग अपने लिए महत्व रखने वाले मुद्दों पर खुलकर बातें कर सकें, भले ही कुछ लोग उन बातों पर असहमति जताएँ या उन्हें वे बातें आपत्तिजनक लगें.
Facebook "अभिव्यक्ति” को चार मूल्यों के मामले में सीमित करता है, जिनमें से दो यहाँ प्रासंगिक हैं.
“सुरक्षा”: हम Facebook को एक सुरक्षित जगह बनाने के लिए प्रतिबद्ध हैं. धमकी भरी अभिव्यक्ति से लोगों में डर, अलगाव की भावना आ सकती या दूसरों के विचार दब सकते हैं और Facebook पर इसकी परमिशन नहीं है.
“गरिमा” : हमारा मानना है कि सभी लोगों को एक जैसा सम्मान और एक जैसे अधिकार मिलने चाहिए. हम उम्मीद करते है कि लोग एक-दूसरे की गरिमा का ध्यान रखेंगे और दूसरों को परेशान नहीं करेंगे या नीचा नहीं दिखाएँगे.
II. मानवाधिकार स्टैंडर्ड
बिज़नेस और मानव अधिकार के बारे में संयुक्त राष्ट्र संघ के मार्गदर्शक सिद्धांत (UNGP), जिन्हें 2011 में संयुक्त राष्ट्र संघ की मानव अधिकार समिति का समर्थन मिला है, प्राइवेट बिज़नेस की मानवाधिकारों से जुड़ी ज़िम्मेदारियों का स्वैच्छिक ढांचा तैयार करते हैं. 2021 में Facebook ने अपनी कॉर्पोरेट मानवाधिकार पॉलिसी की घोषणा की, जिसमें उसने UNGP के अनुसार अधिकारों का सम्मान करने की प्रतिज्ञा ली. इस केस में बोर्ड ने इन मानवाधिकार स्टैंडर्ड को ध्यान में रखते हुए विश्लेषण किया:
- अभिव्यक्ति की स्वतंत्रता: अनुच्छेद 19, नागरिक और राजनीतिक अधिकारों पर अंतर्राष्ट्रीय प्रतिज्ञापत्र ( ICCPR), सामान्य कमेंट नं. 34, मानव अधिकार समिति, 2011; विचार और अभिव्यक्ति की स्वतंत्रता की रिपोर्ट पर संयुक्त राष्ट्र का विशेष रैपर्टर: A/HRC/35/22/Add.3 (2017), A/HRC/41/35/Add.2 (2019), A/HRC/38/35 (2018), A/74/486 (2019) और A/HRC/44/49/Add.2 (2020); रैबट प्लान ऑफ़ एक्शन, OHCHR, (2013).
- भेदभाव न किए जाने का अधिकार: अनुच्छेद 2, पैरा. 1, ICCPR; अनुच्छेद 1 और 2, हर तरह के नस्लीय भेदभाव के उन्मूलन पर अनुबंध (CERD).
- न्याय तक पहुँच के संदर्भ में सूचना पाने का अधिकार: अनुच्छेद 14, पैरा. 3(a), ICCPR; सामान्य कमेंट सं. 32, मानवाधिकार समिति, (2007).
5. यूज़र का कथन
यूज़र ने बोर्ड से की गई अपनी अपील में कहा कि "ऐतिहासिक घटनाओं को सेंसर नहीं किया जाना चाहिए." उन्होंने बताया कि उन्होंने अपमान करने के लिए कमेंट नहीं किया था, बल्कि "किसी विशेष ऐतिहासिक घटना की विडंबना" की ओर इशारा करने के लिए किया था. यूज़र ने उल्लेख किया कि "हो सकता है Facebook ने इसे हमले के तौर पर गलत समझ लिया हो." यूज़र ने यह भी कहा कि भले ही कंटेंट "धर्म और युद्ध" की स्थिति पैदा करता हो, लेकिन यह कोई "तीव्र प्रतिक्रिया का मुद्दा" नहीं है. यूज़र को लगा कि Facebook और उसकी पॉलिसी अत्यधिक प्रतिबंध लगाते हैं और यूज़र ने तर्क दिया कि "कई चीज़ों की तरह हास्य भी निजी रुचियों और विचारों पर आधारित होता है और कोई चीज़ किसी एक व्यक्ति के लिए आपत्तिजनक तो किसी दूसरे के लिए मज़ेदार हो सकती है."
6. Facebook के फ़ैसले का स्पष्टीकरण
Facebook ने बताया कि उसने नफ़रत फैलाने वाली भाषा के कम्युनिटी स्टैंडर्ड के तहत टियर 1 हमले के तौर पर कमेंट को हटा दिया था, ख़ास तौर पर उस कंटेंट को प्रतिबंधित करने वाली इसकी पॉलिसी का उल्लंघन करने के कारण जिसमें कहा गया कि आतंकवादियों सहित संरक्षित विशेषताओं वाले सभी सदस्य अपराधी हैं. Facebook के अनुसार, मीम में शामिल पहला बयान "आर्मेनियाई नरसंहार एक झूठ है" एक नकारात्मक सामान्यकरण है, लेकिन इससे आर्मेनियाई लोगों पर सीधा हमला नहीं होता है और इसलिए ही इसमें कंपनी के कम्युनिटी स्टैंडर्ड का उल्लंघन नहीं हुआ था. Facebook ने पाया कि दूसरे बयान "आर्मेनियाई आतंकवादी थे जो इसके हकदार थे" में आर्मेनियाई लोगों की जाति और राष्ट्रीयता के आधार पर यह कह कर उन पर सीधा हमला किया गया कि वे अपराधी हैं. इससे कंपनी की नफ़रत फैलाने वाली भाषा से जुड़ी पॉलिसी का उल्लंघन हुआ.
अपने फ़ैसले के तर्क में, Facebook ने मूल्यांकन किया कि क्या नफ़रत फैलाने वाली भाषा की निंदा करने या इस बारे में जागरूकता बढ़ाने के लिए इसे शेयर करने वाले कंटेंट का अपवाद इस केस में लागू होना चाहिए. Facebook ने तर्क दिया कि यह मीम इस अपवाद के अंतर्गत नहीं था, क्योंकि यूज़र ने यह बात स्पष्ट नहीं की कि उनका इरादा नफ़रत फैलाने वाली भाषा की निंदा करना था. Facebook ने ख़ास तौर पर बोर्ड को यह बताया कि मीम में दिखाई देने वाले पसीने से तर-बतर कार्टून कैरेक्टर को या तो बयानों की निंदा करने या फिर उन्हें अपनाने के रूप में देखा जा सकता है. Facebook ने यह भी बताया कि पहले नफ़रत फैलाने वाली भाषा की उसकी पॉलिसी में हास्य के लिए एक अपवाद शामिल था. कंपनी ने यह स्पष्ट किया कि उसने नागरिक अधिकारों की ऑडिट रिपोर्ट (जुलाई 2020) और अपनी पॉलिसी के विकास के रूप में इस अपवाद को हटा दिया. बोर्ड को दिए गए जवाब में Facebook ने दावा किया कि "Facebook के बड़े पैमाने पर एन्फ़ोर्समेंट के लिए मज़ाकिया मानी जाने वाली चीज़ के लिए कोई परिभाषा तैयार करना संचालन योग्य नहीं था." हालाँकि, नागरिक अधिकारों की ऑडिट रिपोर्ट में कंपनी ने जाहिर किया कि उसने व्यंग्य के लिए एक सीमित अपवाद बनाए रखा, जिसे Facebook ऐसे कंटेंट के रूप में परिभाषित करता है, जिसमें “लोगों, उनके व्यवहारों या विचारों को, विशेष रूप से राजनीतिक, धार्मिक या सामाजिक मुद्दों के संदर्भ में, उजागर करने या उनकी आलोचना करने के इरादे से विडंबना, अतिशयोक्ति, उपहास और/या निरर्थक बातचीत शामिल होती है. इसका उद्देश्य व्यापक सामाजिक मुद्दों की ओर ध्यान आकर्षित करना और उनकी आलोचना करना है." यह अपवाद इसके कम्युनिटी स्टैंडर्ड में शामिल नहीं है. ऐसा लगता है कि यह उस कंटेंट के अपवाद से अलग है, जिसमें नफ़रत फैलाने वाली भाषा शामिल होती है ताकि इसकी निंदा की जा सके या इसके बारे में जागरूकता बढ़ाई जा सके.
Facebook ने यह भी स्पष्ट किया कि कंटेंट से क्रूरता और असंवेदनशीलता से जुड़ी पॉलिसी का उल्लंघन नहीं हुआ था, जो "शिकार हुए लोगों का मज़ाक उड़ाने के स्पष्ट प्रयासों" पर रोक लगाती है, जिसमें मीम के ज़रिए ऐसा करना भी शामिल है, क्योंकि उसमें शिकार हुए किसी वास्तविक व्यक्ति को नहीं दिखाया गया था न ही ऐसे किसी व्यक्ति का नाम लिया गया था.
Facebook ने यह भी बताया कि उस कंटेंट को हटाना “गरिमा” और “सुरक्षा” के उसके मूल्यों के अनुरूप था, वहीं इसमें “अभिव्यक्ति” के महत्व को संतुलित रखने का ध्यान रखा गया था. Facebook के अनुसार, आर्मेनियाई लोगों को आतंकवादी कहने वाला कंटेंट "उनकी गरिमा का तिरस्कार है, उसे अपमानजनक या अमानवीय माना जा सकता है और यहाँ तक कि इससे बाहरी उत्पीड़न और हिंसा का जोखिम भी पैदा हो सकता है."
Facebook ने तर्क दिया कि उसका फ़ैसला अंतरराष्ट्रीय मानवाधिकार स्टैंडर्ड का पालन करते हुए लिया गया था. Facebook ने बताया कि (a) कम्युनिटी स्टैंडर्ड में उसकी पॉलिसी “आसानी से उपलब्ध” थी, (b) कंटेंट हटाने का फ़ैसला “अन्य लोगों के अधिकारों का हनन होने और उन्हें भेदभाव” से बचाने के लिए कानूनी रूप से सही था, और (c) कंटेंट हटाने का उसका फ़ैसला “आर्मेनियाई लोगों को होने वाले नुकसान को सीमित करने के लिए ज़रूरी और यथोचित था.” अभिव्यक्ति के लिए तय की गईं सीमाएँ यथोचित थीं, यह सुनिश्चित करने के लिए Facebook ने तर्क दिया कि नफ़रत फैलाने वाली भाषा से जुड़ी उसकी पॉलिसी “कुछ तरह के सामान्यकरणों” पर लागू हुई.
7. थर्ड पार्टी सबमिशन
इस केस के संबंध में, ओवरसाइट बोर्ड को लोगों की ओर से 23 कमेंट मिले. चार कमेंट यूरोप से, एक-एक कमेंट मध्य पूर्व और उत्तरी अफ़्रीका से तथा 18 कमेंट अमेरिका और कनाडा से किए गए थे.
बोर्ड को इस केस के हित से जुड़े मुद्दों से सीधे संबंधित पार्टियों के कमेंट मिले. इनमें आर्मेनियाई नरसंहार के शिकार हुए लोगों के वंशज, नरसंहार की प्रकृति, कारणों और परिणामों का अध्ययन करने वाले संगठन और साथ ही एक पूर्व कंटेंट मॉडरेटर भी शामिल हैं.
सबमिट किए गए कमेंट विषय-आधारित थे, जिनमें निम्न शामिल हैं: इस केस में यूज़र द्वारा अनुकूलित "डेली स्ट्रगल" या "दो बटन" वाले मीम का अर्थ और उपयोग, क्या कंटेंट के पीछे का इरादा तुर्की सरकार और आर्मेनियाई नरसंहार से उसके इनकार की राजनीतिक आलोचना करना था, क्या कंटेंट के ज़रिए आर्मेनियाई नरसंहार का शिकार हुए लोगों का मज़ाक उड़ाया गया था और Facebook के नफ़रत फैलाने वाली भाषा तथा क्रूरता और असंवेदनशीलता से जुड़े कम्युनिटी स्टैंडर्ड इस केस के कैसे संबंधित हैं.
इस केस के संबंध में सबमिट किए गए पब्लिक कमेंट देखने के लिए कृपया यहाँ क्लिक करें.
8. ओवरसाइट बोर्ड का विश्लेषण
बोर्ड ने इस सवाल पर ध्यान दिया कि क्या इन तीन दृष्टिकोणों से इस कंटेंट को रीस्टोर कर दिया जाना चाहिए: Facebook कम्युनिटी स्टैंडर्ड; इस कंपनी के मूल्य; और मानवाधिकारों से जुड़ी इनकी ज़िम्मेदारियाँ.
8.1 कम्युनिटी स्टैंडर्ड का अनुपालन
बोर्ड ने "डेली स्ट्रगल" और "दो बटन" वाले मीम के इस वर्जन में इन बयानों की तुलना करने के प्रभाव की जाँच करने से पहले, Facebook के कम्युनिटी स्टैंडर्ड के लिए दोनों ही बयानों का विश्लेषण किया.
8.1.1. “आर्मेनियाई नरसंहार एक झूठ है” बयान का विश्लेषण
बोर्ड के देखने में आया कि Facebook को यह बयान नफ़रत फैलाने वाली भाषा से जुड़े उसके कम्युनिटी स्टैंडर्ड का उल्लंघन नहीं लगा. Facebook नफ़रत फैलाने वाली भाषा से जुड़े अपने कम्युनिटी स्टैंडर्ड के तहत तब एक्शन लेता है, जब (i) “सीधा हमला” और (ii) कोई “संरक्षित विशेषता” जिसके आधार पर हमला किया गया, ये बातें सामने आती हैं. पॉलिसी बनाने के कारण में “अमानवीय भाषा” हमले के उदाहरण के तौर पर शामिल है. नस्ल और राष्ट्रीय मूल सुरक्षित विशिष्टताओं की लिस्ट में शामिल हैं.
इनकी नफ़रत फैलाने वाली भाषा से जुड़ी पॉलिसी के “यह पोस्ट न करें” सेक्शन में Facebook ऐसी भाषा को प्रतिबंधित करता है, जिसमें “हिंसक अपराधों के पीछे की सोच, उस घटना या उसके पीड़ितों का [म]ज़ाक उड़ाया जा रहा हो, फिर भले ही उसमें कोई ऐसा फ़ोटो न हो, जिसमें किसी व्यक्ति का चित्रण किया गया हो.” बोर्ड के अधिकतर सदस्यों ने पाया कि हालाँकि, उस यूज़र का इरादा उस कथन में बताई गई घटना के पीड़ितों का मज़ाक उड़ाना नहीं था, बल्कि हास्य व्यंग्य के रूप में उस मीम का उपयोग करके उस कथन की ही निंदा करना था. वहीं कुछ सदस्यों का मानना है कि उसमें यूज़र का इरादा स्पष्ट नहीं था. ऐसा हो सकता है कि उस यूज़र ने उस कथन का खंडन करने के बजाय उसका समर्थन करने के लिए वह कंटेंट शेयर किया हो.
इस केस में Facebook ने यूज़र को सूचना दी थी कि उनके कंटेंट से क्रूरता और असंवेदनशीलता से जुड़े कम्युनिटी स्टैंडर्ड का उल्लंघन हुआ है. इस पॉलिसी के तहत Facebook “[गंभीर प्रकृति के शारीरिक या भावनात्मक नुकसान के] पीड़ितों का मज़ाक उड़ाने की कोशिशों,” पर रोक लगाने के साथ-साथ ऐसे कंटेंट पर भी रोक लगाता है, जिसमें “असमय मौत के मुँह में जा रहे लोगों के बारे में की गई निर्दयतापूर्ण टिप्पणी और कोई विजुअल या लिखित रूप से चित्रण शामिल हो.” बोर्ड ने Facebook के उस स्पष्टीकरण को सुना ज़रूर, लेकिन माना नहीं कि यह पॉलिसी इस केस पर लागू नहीं होती है, क्योंकि उस मीम में उस घटना का ऐसा कोई भी चित्रण या उसके ऐसे किसी भी पीड़ित का नाम नहीं लिया गया, जिस घटना का उल्लेख उस कथन में किया गया है.
इनकी नफ़रत फैलाने वाली भाषा से जुड़ी पॉलिसी के “यह पोस्ट न करें” सेक्शन के तहत Facebook “किसी विध्वंस को [न]कारने वाली या उससे जुड़ी जानकारी को तोड़-मरोड़ कर पेश करने वाली” भाषा पर भी रोक लगाता है. बोर्ड ने पाया कि कंपनी का स्पष्टीकरण कि यह पॉलिसी आर्मेनियाई जनसंहार या अन्य जनसंहार पर लागू नहीं होती है, और यह पॉलिसी कंपनी द्वारा “ बाहरी विशेषज्ञों से ली गई सलाह, दुनिया भर में यहूदी विरोधी भावना बढ़ने के ठोस दस्तावेज़ों, साथ ही यह उस विध्वंस के बारे में अनभिज्ञता के चिंताजनक स्तर पर आधारित है.”
8.1.2. इस कथन का विश्लेषण- “आर्मेनियाई लोग आतंकवादी थे और उनका यही हश्र होना था”
बोर्ड के देखने में आया कि Facebook के अनुसार यह कथन नफ़रत फैलाने वाली भाषा से जुड़े उनके कम्युनिटी स्टैंडर्ड का उल्लंघन करता है. नफ़रत फैलाने वाली भाषा से जुड़े इस कम्युनिटी स्टैंडर्ड का “यह पोस्ट न करें” सेक्शन “तुलना करने वाले कथन, आम धारणाएँ, या दुर्व्यवहार वाले कथन (लिखित या विजुअल) के रूप में अमानवीय भाषा या चित्रण” पर रोक लगाता है. इस पॉलिसी में उन बातों पर भी रोक लगाई जाती है, जिसमें टार्गेट किए गए किसी समूह का चित्रण “अपराधियों” के रूप में किया जाता है. बोर्ड मानता है कि “आतंकवादी” शब्द इसी कैटेगरी में आता है.
8.1.3 उस मीम के कथनों का संयुक्त विश्लेषण
बोर्ड का मानना है कि उस कंटेंट का मूल्यांकन समग्र रूप से किया जाना चाहिए, जिसमें लोकप्रिय मीम में जोड़े गए इन कथनों के तुलनात्मक प्रभाव का भी मूल्यांकन होना चाहिए. आम तौर पर “डेली स्ट्रगल” या “दो बटन” वाले मीम का उद्देश्य संभावित विरोधाभासों या अन्य छुपे हुए अर्थों को सामने लाने के लिए दो अलग-अलग विकल्पों की विषमता दिखाना है, न कि उस मीम में दिखाए गए विकल्पों का समर्थन करना.
अधिकतर सदस्यों की नज़र में नफ़रत फैलाने वाली भाषा से जुड़ी पॉलिसी का अपवाद बहुत ही महत्वपूर्ण है. इस अपवाद के कारण लोग “ऐसा कंटेंट शेयर कर सकते हैं, जिसमें किसी अन्य व्यक्ति की नफ़रत फैलाने वाली बातें इसलिए शामिल की जाती हैं, ताकि उनकी निंदा की जा सके या उनके बारे में जागरूकता लाई जा सके.” इस अपवाद में यह भी बताया जाता है कि: “इस तरह की बातों को शामिल करने की परमिशन देने की बात ध्यान में रखते हुए ही हमारी पॉलिसी तैयार की गई हैं, लेकिन हम चाहते हैं कि लोग अपना इरादा साफ़ तौर पर बताएँ. उद्देश्य स्पष्ट न होने पर हम उनका कंटेंट हटा भी सकते हैं.” ज़्यादातर सदस्यों ने पाया कि वह कंटेंट कंपनी के व्यंग से जुड़े अपवाद के तहत भी आ सकता था, जो कि सार्वजनिक रूप से उपलब्ध नहीं है.
उस कंटेंट का समग्र रूप से मूल्यांकन करने पर ज़्यादातर सदस्यों ने पाया कि संबंधित यूज़र का इरादा साफ़ तौर से पता चल रहा था. उन्होंने आर्मेनियाई नरसंहार को नकारने और वहीं उन ऐतिहासिक अत्याचारों को सही भी ठहराने से जुड़ी तुर्की सरकार की करतूतों को लोगों के सामने लाने और उनकी निंदा करने के लिए वह मीम एक व्यंग्य के रूप में शेयर किया. संबंधित यूज़र का इरादा न तो इस घटना के पीड़ितों का मज़ाक उड़ाना था, न ही उन पीड़ितों को अपराधी घोषित करना या उस अत्याचार को सही ठहराना था. ज़्यादातर सदस्यों ने उस जनसंहार के मामले में तुर्की सरकार की स्थिति पर विचार किया, जिसे 1915 के बाद से आर्मेनियाई लोगों को झेलना पड़ा ( तुर्की गणराज्य, विदेश मंत्रालय) साथ ही तुर्की और आर्मेनिया के इतिहास पर भी गौर किया गया. इस मामले में उन्होंने पाया कि पसीने से लथपथ उस कार्टून कैरेक्टर के चेहरे की जगह लगा तुर्की का झंडा और वह कंटेंट सीधे तौर पर आर्मेनियाई नरसंहार की ओर इशारा करता है, यानी कि उस यूज़र ने वह मीम इस मामले में तुर्की सरकार की राय की निंदा करने के लिए शेयर किया था. इस मीम के साथ "सोचने वाले चेहरे" के इमोजी का उपयोग करना, जिसका आम तौर पर व्यंग्यात्मक रूप से उपयोग किया जाता है, इस निष्कर्ष को सही ठहराता है. बोर्ड के अधिकांश सदस्यों ने एक पब्लिक कमेंट “PC-10007” (ऊपर बताए गए सेक्शन 7 के तहत प्राप्त) पर ध्यान दिया, जिसमें कहा गया था कि “उस मीम में, जैसा वर्णन किया गया है, उसके अनुसार नरसंहार का शिकार हुए लोगों का मज़ाक नहीं उड़ाया गया है, बल्कि उस समय तुर्की की ओर से ऐसी किसी घटना के होने से इनकार किए जाने की करतूत का मज़ाक बनाया गया था, उसमें दोनों बातें साथ-साथ कही हैं कि नरसंहार नहीं हुआ था और उसके शिकार हुए लोगों का यही हश्र होना था." ऐसे में अार्मेनियाई लोगों की रक्षा के नाम पर इस कमेंट को हटाना गलत होगा, जबकि यह पोस्ट अार्मेनियाई लोगों के समर्थन में तुर्की सरकार की निंदा करती है.
जैसा कि ज़्यादातर सदस्यों ने पाया कि समग्र रूप से देखा जाए, तो यह कंटेंट Facebook के नफ़रत फैलाने वाली भाषा से जुड़े कम्युनिटी स्टैंडर्ड के पॉलिसी संबंधी अपवाद के श्रेणी में आता है. वहीं अलग से कोई संदर्भ नहीं होने से बोर्ड के कुछ सदस्यों की नज़र में संबंधित यूज़र का इरादा इतना स्पष्ट नहीं था कि उससे यह निष्कर्ष निकाला जाए कि वह कंटेंट तुर्की सरकार की निंदा करने के लिए व्यंग्य के रूप में शेयर किया गया था. इसके अलावा उन सदस्यों ने पाया कि वह यूज़र ठीक तरह से व्यक्त नहीं कर पाया कि उस कथित हास्य व्यंग्य से क्या जाहिर करने का इरादा था. चूँकि कंटेंट में आर्मेनियाई लोगों के बारे में एक हानिकारक आम धारणा शामिल है, इसलिए बोर्ड के कुछ सदस्यों ने पाया कि इससे नफ़रत फैलाने वाली भाषा से जुड़े कम्युनिटी स्टैंडर्ड का उल्लंघन होता है.
8.2 Facebook के मूल्यों का अनुपालन
बोर्ड के ज़्यादातर सदस्य मानते हैं कि इस कंटेंट को रीस्टोर करना Facebook के मूल्यों के अनुरूप है. बोर्ड ने उन कथनों के मामले में आर्मेनियाई कम्युनिटी की संवेदनशीलता को माना, जो कि 1915 के बाद से बड़े पैमाने पर किए गए उन अत्याचारों के बारे में थे, जिन्हें आर्मेनियाई लोगों ने सहा, साथ ही ये कथन इस कम्युनिटी द्वारा किए गए उस लंबे संघर्ष को लेकर भी थे, जो इस नरसंहार को दुनिया की नज़र में लाने और इन अत्याचारों के लिए न्याय माँगने के लिए उन्होंने किया. हालाँकि, अधिकतर सदस्यों को ऐसा कोई सबूत नहीं मिला, जिससे यह साबित हो कि इस केस में उस मीम ने “गरिमा” और “सुरक्षा” के लिए ऐसा कोई खतरा पैदा किया, जिसके लिए “अभिव्यक्ति” पर अंकुश लगाया जाना ज़रूरी था. इन सदस्यों का ध्यान “सुरक्षा” के बारे में Facebook के व्यापक संदर्भ पर भी गया, जिसमें यह बताया नहीं गया था कि इस केस में यह मूल्य कैसे लागू हुआ.
बोर्ड के कुछ सदस्यों ने पाया कि हालाँकि व्यंग्य का बचाव किया जाना चाहिए, जैसा की बोर्ड के ज़्यादातर सदस्यों का कहना है, जो सही भी है, वहीं उस कमेंट में शामिल उन कथनों ने उन लोगों के आत्मसम्मान को ठेस पहुँचाई है, जिनके पूर्वजों को उस नरसंहार का सामना करना पड़ा था. बोर्ड के कुछ सदस्यों को वे कथन उन लोगों के सम्मान को ठेस पहुँचाने वाले लगे, जिनका नरसंहार हुआ और नुकसानदायक लगे, क्योंकि इससे आर्मेनियाई लोगों के साथ भेदभाव और हिंसा होने की आशंका को बढ़ावा मिल सकता है. जो “सुरक्षा” और “गरिमा” के बचाव में “अभिव्यक्ति” पर लगाए गए अंकुश को सही ठहराता है.
8.3 Facebook के मानवाधिकार ज़िम्मेदारियों का अनुपालन
अभिव्यक्ति की स्वतंत्रता (अनुच्छेद 19 ICCPR)
ICCPR का अनुच्छेद 19, पैरा. 2 “हर प्रकार” की अभिव्यक्ति को सुरक्षा प्रदान करता है, जिसमें लिखित, अमौखिक और अलिखित “राजनीतिक चर्चा” के साथ-साथ “सांस्कृतिक और कलात्मक अभिव्यक्ति” भी आती हैं. संयुक्त राष्ट्र मानवाधिकार समिति ने यह स्पष्ट किया है कि अनुच्छेद 19 के संरक्षण में ऐसी अभिव्यक्ति भी शामिल है जिसे "अत्यंत आपत्तिजनक" माना जा सकता है (सामान्य कमेंट सं. 34, पैरा. 11, 12).
इस केस में बोर्ड ने यह पाया कि वह कार्टून, जो एक व्यंग्यपूर्ण मीम के रूप में था, एक राजनीतिक मुद्दे को लेकर अपना विरोध जताता है: अार्मेनियाई लोगों के नरसंहार पर तुर्की सरकार का रवैया. बोर्ड ने पाया कि “ऐसे कार्टून, जो किसी राजनीतिक विचारधारा को उजागर करते हैं” और “ऐसे मीम, जो किसी सार्वजनिक हस्तियों का मज़ाक बनाते हैं”, उन्हें ऐसे कलात्मक अभिव्यक्ति के तरीकों के तौर पर देखा जा सकता है, जिन्हें अंतरराष्ट्रीय मानवाधिकार कानून के तहत संरक्षण प्राप्त है (अभिव्यक्ति की स्वतंत्रता पर संयुक्त राष्ट्र का विशेष रैपर्टर, रिपोर्ट A/HRC/44/49/Add.2, पैरा. 5). बोर्ड ने आगे ज़ोर देकर कहा कि ICCPR द्वारा राजनीतिक क्षेत्र और सार्वजनिक संस्थाओं में सार्वजनिक हस्तियों के बारे में उन्मुक्त अभिव्यक्ति को दिया गया महत्व “उच्च स्तरीय” है (सामान्य कमेंट सं. 34, पैरा. 38).
बोर्ड ने इस पर भी ध्यान दिया कि ऐतिहासिक तथ्यों के बारे में गलत विचारधारा वाली अभिव्यक्तियों या मंतव्यों पर सामान्य प्रतिबंधन लागू करने वाले कानून, जो अक्सर नफ़रत फ़ैलाने वाली भाषा के संदर्भ द्वारा उचित ठहराए जाते हैं, वे ICCPR के अनुच्छेद 19 के साथ असंगत हैं, जब तक कि वे ICCPR के अनुच्छेद 20 के अंतर्गत विद्वेष, भेदभाव या हिंसा में परिणत नहीं होते (सामान्य कमेंट 34, पैरा. 29; अभिव्यक्ति की स्वतंत्रता पर संयुक्त राष्ट्र का रैपर्टर, रिपोर्ट A/74/486, पैरा. 22).
अभिव्यक्ति की स्वतंत्रता का अधिकार बुनियादी है, लेकिन यह संपूर्ण नहीं है. इसे प्रतिबंधित किया जा सकता है, लेकिन प्रतिबंधों के लिए वैधानिकता, वैधानिक लक्ष्य और आवश्यकता तथा समानता की शर्तों को पूरा करना ज़रूरी है (अनुच्छेद 19, पैरा. 3, ICCPR). Facebook को नफ़रत फैलाने वाली भाषा से संबंधित अपनी कंटेंट मॉडरेशन पॉलिसी को इन सिद्धांतों के अनुकूल बनाने की कोशिश करनी चाहिए (अभिव्यक्ति की स्वतंत्रता पर संयुक्त राष्ट्र का विशेष रैपर्टर, रिपोर्ट A/74/486, पैरा. 58(b)).
I. वैधानिकता
अभिव्यक्ति की स्वतंत्रता को सीमित करने वाला कोई भी नियम स्पष्ट, सटीक और सार्वजनिक रूप से उपलब्ध होना चाहिए, (सामान्य कमेंट 34, पैरा. 25). लोगों के पास यह तय करने के लिए पर्याप्त जानकारी होनी चाहिए कि क्या उनकी बातों पर रोक लगाई जा सकती है और ऐसा करने की वजह क्या हो सकती है, ताकि इसके हिसाब से वे अपने व्यवहार में बदलाव ला सकें. Facebook के कम्युनिटी स्टैंडर्ड “ऐसे कंटेंट को परमिशन देते हैं, जिसमें किसी अन्य व्यक्ति की नफ़रत फैलाने वाली बातें इसलिए शामिल की जाती हैं, ताकि उनकी आलोचना की जा सके या उसके बारे में जागरूकता लाई जा सके,” लेकिन यूज़र्स से यह अपेक्षा की जाती है कि “वे अपना इरादा साफ़ तौर पर ज़ाहिर करें.” इसके अलावा बोर्ड ने यह भी देखा कि Facebook ने हास्य से जुड़े एक अपवाद को जुलाई 2020 में पूरे हुए नागरिक अधिकारों के ऑडिट के चलते नफ़रत फैलाने वाली भाषा से जुड़ी अपनी पॉलिसी से हटा दिया था. चूँकि इस अपवाद को हटा दिया गया है, कंपनी ने व्यंग्य के लिए अपवाद के दायरे को बहुत ही सीमित रखा है, वहीं फ़िलहाल नफ़रत फैलाने वाली भाषा से जुड़े इनके कम्युनिटी स्टैंडर्ड में यूज़र्स को इस बदलाव की जानकारी भी नहीं दी गई है.
बोर्ड ने यह भी ध्यान दिया कि Facebook ने संबंधित यूज़र को गलत जानकारी देते हुए बताया गया कि उन्होंने क्रूरता और असंवेदनशीलता से जुड़े कम्युनिटी स्टैंडर्ड का उल्लंघन किया है, जबकि Facebook ने नफ़रत फ़ैलाने वाली भाषा से जुड़ी पॉलिसी को अपने एन्फ़ोर्समेंट का आधार बनाया है. बोर्ड के यह देखने में आया कि यूज़र्स के लिए यह भी पूरी तरह स्पष्ट नहीं किया गया है कि क्रूरता और असंवेदनशीलता से जुड़े कम्युनिटी स्टैंडर्ड के तहत केवल उन्हीं कंटेंट के खिलाफ़ कार्रवाई की जाती है, जिसमें नुकसान उठाने वाले पीड़ितों का चित्रण या उनका उल्लेख किया जाता है.
साथ ही बोर्ड ने यह भी देखा है कि अगर यूज़र्स को उनके खिलाफ़ किए गए एन्फ़ोर्समेंट के कारण सही तरीके से बताए जाते हैं, तो उससे यूज़र्स को Facebook के नियमों का पालन करने में मदद मिलेगी. यह कानूनी समस्या से संबंधित है, क्योंकि कंटेंट हटाने के बारे में यूज़र्स के लिए प्रासंगिक जानकारी नहीं दिए जाने से “उन्हें ऐसा लग सकता है उनसे कुछ छिपाया जा रहा है, जो स्पष्टता, विशिष्टता और पूर्वानुमानों के स्टैंडर्ड से असंगत है” जिससे “कंटेंट पर लिए गए एक्शन को चुनौती देने या कंटेंट से संबंधित शिकायतों को लेकर आगे की कार्रवाई करने से जुड़ी किसी व्यक्ति की क्षमता” प्रभावित हो सकती है. (अभिव्यक्ति की स्वतंत्रता पर संयुक्त राष्ट्र का रैपर्टर, रिपोर्ट A/HCR/38/35, पैरा. 58). इसी वजह से इस केस में यूज़र नोटिस के मामले में Facebook द्वारा अपनाया गया तरीका वैधता परीक्षण में विफल रहा.
II. वैधानिक लक्ष्य
अभिव्यक्ति की स्वतंत्रता पर किसी भी प्रतिबंध का उद्देश्य “वैधानिक लक्ष्य” प्राप्त करना ही होना चाहिए. बोर्ड ने माना कि प्रतिबंध में दूसरों के अधिकारों की रक्षा करने के वैधानिक लक्ष्य को पूरा करने की कोशिश की गई (सामान्य कमेंट सं. 34, पैरा. 28). इनमें नस्ल और राष्ट्रीय मूल पर आधारित अधिकारों सहित समानता और गैर-भेदभाव के अधिकार शामिल हैं (अनुच्छेद 2, पैरा. 1, ICCPR; ICERD के अनुच्छेद 1 और 2).
बोर्ड ने 2021-002-FB-UA केस के फ़ैसले में अपने निष्कर्ष को सही ठहराते हुए कहा कि “अपमान से लोगों की रक्षा करने के एकमात्र उद्देश्य के लिए अभिव्यक्ति की स्वतंत्रता को प्रतिबंधित करना वैधानिक लक्ष्य नहीं है (अभिव्यक्ति की स्वतंत्रता पर संयुक्त राष्ट्र का विशेष रैपर्टर, रिपोर्ट A/74/486, पैरा. 24), क्योंकि अंतरराष्ट्रीय मानवाधिकार कानून द्वारा उन्मुक्त अभिव्यक्ति को बहुत ज़्यादा अहमियत दी गई है (सामान्य कमेंट सं. 34, पैरा. 38).”
III. आवश्यकता और आनुपातिकता
अभिव्यक्ति की स्वतंत्रता पर लगाए जाने वाले सभी प्रतिबंध "उनके सुरक्षात्मक कार्य को पूरा करने के लिए उपयुक्त होने चाहिए; वे अपने सुरक्षात्मक कार्य कर सकने वाले उपायों में से कम से कम हस्तक्षेप करने वाले उपाय होने चाहिए; उन्हें सुरक्षित रखे जाने वाले हित के अनुपात में होना चाहिए” (सामान्य कमेंट 34, पैरा. 34).
बोर्ड ने मूल्यांकन किया कि क्या अार्मेनियाई लोगों के समानता और भेदभाव से बचाव से जुड़े अधिकारों की रक्षा के लिए कंटेंट को हटाना ज़रूरी था. बोर्ड ने देखा कि तुर्की में अभी भी अभिव्यक्ति की स्वतंत्रता पर कड़े प्रतिबंध हैं, जिससे अार्मेनियाई समेत देश में रहने वाले नस्लीय अल्पसंख्यकों को विषम परिस्थितियों का सामना करना पड़ता है. संयुक्त राष्ट्र ने 2016 में तुर्की से जुड़े अपने मिशन के तहत बनाई गई एक रिपोर्ट में, अभिव्यक्ति की स्वतंत्रता पर संयुक्त राष्ट्र के विशेष रैपर्टर में “लोकतांत्रिक जीवन से जुड़े सभी मौलिक क्षेत्रों के कामकाज में सेंसरशिप देखने को मिली: मीडिया, शैक्षणिक संस्थान, न्यायपालिका और बार कौंसिल, सरकारी नौकरशाही, राजनीतिक क्षेत्र और डिजिटल युग का विशाल ऑनलाइन विस्तार” (अभिव्यक्ति की स्वतंत्रता पर संयुक्त राष्ट्र का विशेष रैपर्टर, रिपोर्ट A/HRC/35/22/Add.3, पैरा. 7). इसकी अगली रिपोर्ट 2019 में प्रकाशित हुई, संयुक्त राष्ट्र की विशेष रैपर्टर में यह बताय गया कि वहाँ के हालात में अभी भी सुधार नहीं हुआ है (अभिव्यक्ति की स्वतंत्रता पर संयुक्त राष्ट्र का विशेष रैपर्टर, रिपोर्ट A/HRC/41/35/Add.2, पैरा. 26).
आर्मेनियाई लोगों पर विशेष रूप से 1915 के बाद से तुर्की के ऑटोमन साम्राज्य द्वारा किए गए अत्याचारों की निंदा करने वाली अभिव्यक्ति को तुर्की सरकार ने निशाना बनाया हुआ है. एक संयुक्त आरोप पत्र में संयुक्त राष्ट्र के कई स्वतंत्र मानवाधिकार विशेषज्ञों ने उल्लेख किया कि ऐसा लगता है कि तुर्की अपराध संहिता के अनुच्छेद 301 को “तुर्की अार्मेनियाई समुदाय के खिलाफ़ अपनाई गई हिंसा की नीति के बारे में सच्चाई तक पहुँचने” और “पीड़ितों के न्याय और क्षतिपूर्ति के अधिकार” को बाधित करने के लिए सोची-समझी साजिश के तहत बनाया गया है. बोर्ड ने 2007 में आर्मेनियाई मूल के पत्रकार ह्रांट डिंक की हुई हत्या पर भी गौर किया, डिंक ने आर्मेनियाई मूल के तुर्की नागरिकों की पहचान को लेकर कई लेख प्रकाशित किए थे. इनमें से एक लेख में डिंक ने नरसंहार को नकारे जाने के व्यवहार पर अपनी बात रखी और यह भी बताया कि इससे आर्मेनियाई लोगों की पहचान कैसे प्रभावित हुई है. डिंक को पहले भी तुर्की अदालतों ने उनके लेखन के ज़रिए “तुर्की की पहचान” का अपमान करने का दोषी ठहराया था. 2010 में यूरोपीय मानवाधिकार न्यायालय ने फ़ैसला दिया कि डिंक को लेकर सुनाया गया फ़ैसला और उनके जीवन की रक्षा करने में तुर्की शासन के उचित उपाय करने में विफल होना उनकी अभिव्यक्ति की स्वतंत्रता का उल्लंघन है (यूरोपीय मानवाधिकार न्यायालय, डिंक बनाम तुर्की, पैरा. 139).
बोर्ड के ज़्यादातर मेंबर्स ने निष्कर्ष निकाला कि Facebook द्वारा संबंधित यूज़र की अभिव्यक्ति की स्वतंत्रता के साथ हस्तक्षेप करना गलत था. उस कमेंट को हटाने से अार्मेनियाई लोगों के समानता और गैर-भेदभाव के अधिकारों की रक्षा नहीं होगी. वह यूज़र मीम में दिए गए तुलनात्मक कथनों का समर्थन नहीं कर रहा था, बल्कि उससे वह तुर्की सरकार को ज़िम्मेदार ठहरा रहा था. उन्होंने सरकार की विरोधाभासी बातों और स्वार्थी रवैये की निंदा करने और उसे सबके सामने लाने के लिए ऐसा किया. बोर्ड के ज़्यादातर सदस्यों ने यह पाया कि अगर लोगों को अपना इरादा स्पष्ट रूप से ज़ाहिर करना पड़े, तो इस मीम के जैसे व्यंग्य की प्रभावशीलता कम हो जाएगी. असल बात यह है कि आम तौर पर “दो बटन” या “डेली स्ट्रगल” वाले मीम हास्य पैदा करने के इरादे से बनाए जाते हैं, भले ही यहाँ उसका विषय गंभीर था, इससे अधिकतर सदस्यों को फ़ैसला लेने में भी योगदान मिला.
अधिकतर सदस्यों ने यह भी ध्यान दिया कि उस कंटेंट को कई देशों में मौजूद फ़ॉलोअर्स के साथ Facebook पेज पर अंग्रेज़ी भाषा में शेयर किया गया था. हालाँकि उस मीम का कुछ Facebook यूज़र्स गलत अर्थ लगा सकते हैं, फिर भी ज़्यादातर सदस्यों ने पाया कि यह आर्मेनियाई लोगों के साथ भेदभाव और हिंसा होने की आशंका को बढ़ावा नहीं देता है, ख़ास तौर पर ऐसा कंटेंट, जिसे अंतरराष्ट्रीय ऑडियंस को ध्यान में रखकर शेयर किया गया हो. उन्होंने पाया कि इस महत्वपूर्ण मुद्दे को अंतरराष्ट्रीय ऑडियंस के सामने लाना जनहित में है.
इसके अलावा, बोर्ड ने पाया कि बिना किसी कारण के जानकारी निकालने को सही नहीं ठहराया जा सकता है. सार्वजनिक हित के मामले पर जनता की भलाई से जुड़े कंटेंट को हटाने के लिए कोई वज़नदार कारण होना चाहिए. इस संबंध में बोर्ड इस मीम और इसी के जैसे व्यंग्य वाले अन्य कंटेंट का रिव्यू करने के लिए Facebook कंटेंट मॉडरेटर की क्षमता को लेकर चिंतित नज़र आया. कॉन्ट्रेक्टर्स को सही प्रक्रियाओं का पालन करना चाहिए और व्यंग्य पर आधारित कंटेंट और उससे जुड़े प्रासंगिक संदर्भ का ठीक तरह से मूल्यांकन करने के लिए पर्याप्त समय, संसाधन और समर्थन दिया जाना चाहिए.
बोर्ड के कुछ सदस्य इस प्लेटफ़ॉर्म पर व्यंग्य पर आधारित कंटेंट का बचाव करने से जुड़ी बोर्ड के अधिकतर सदस्यों की राय का समर्थन कर रहे थे, लेकिन वे उस कंटेंट को व्यंग्य नहीं मान रहे थे. बोर्ड के कुछ सदस्यों को लगता है कि हो सकता है कि संबंधित यूज़र मीम में शामिल कथनों का समर्थन कर रहा हो, और इस तरह से अार्मेनियाई लोगों के खिलाफ़ भेदभाव में शामिल हो. इसलिए उन सदस्यों का मानना था कि इस केस में आवश्यकता और आनुपातिकता की शर्तों को पूरा किया गया है. केस 2021-002-FB-UA के फ़ैसले में , बोर्ड ने Facebook की राय को लेकर पाया कि काले रंग से रंगा चेहरा दिखाने वाले कंटेंट को तब हटा दिया जाएगा, जब संबंधित यूज़र यह साफ़ तौर से नहीं बताता कि उसका इरादा उस व्यवहार की निंदा करने या उसे लेकर जागरूकता लाने का था. बोर्ड के कुछ सदस्यों की राय में इसी तरह से जिस केस में कंटेंट की व्यंग्यात्मक प्रकृति स्पष्ट नहीं है, जैसा कि इस केस में हुआ है, वहाँ यूज़र का इरादा पूरी तरह से स्पष्ट होना चाहिए. बोर्ड के कुछ मेंबर्स ने यह निष्कर्ष दिया कि भले ही व्यंग्य में बहुत अस्पष्टता है, इसमें हमले के लक्ष्य के बारे में अस्पष्टता नहीं होनी चाहिए, यानी कि तुर्की सरकार या अार्मेनियाई लोग.
जानकारी पाने का अधिकार (अनुच्छेद 14, पैरा. 3(a), ICCPR)
बोर्ड ने पाया कि संबंधित यूज़र को उल्लंघन से जुड़े नियम के बारे में गलत जानकारी देने वाला नोटिस न्याय दिलाने के संदर्भ में जानकारी पाने के अधिकार को लेकर हुई गलती को ज़ाहिर करता है (अनुच्छेद 14, पैरा. 3(a) ICCPR). यूज़र के अभिव्यक्ति के अधिकार पर रोक लगाते समय, Facebook को उचित प्रक्रिया का ध्यान रखते हुए उस यूज़र को उनके फ़ैसले के आधार पर सही जानकारी देनी चाहिए, जिसमें उसे फ़ैसले से जुड़े कारण के बदलने पर उस नोटिस को संशोधित करना भी आता है (सामान्य कमेंट सं. 32, पैरा. 31). इस केस में Facebook अपनी उस ज़िम्मेदारी को निभा नहीं पाया.
9. ओवरसाइट बोर्ड का फ़ैसला
ओवरसाइट बोर्ड ने Facebook के कंटेंट हटाने के फ़ैसले को बदल दिया और उस कंटेंट को रीस्टोर करने के लिए कहा.
10. पॉलिसी से जुड़े सुझाव का कथन
इन सुझावों की गिनती की जाती है और बोर्ड यह अनुरोध करता है कि Facebook ड्राफ़्ट किए गए अनुसार हर सुझाव के अलग-से जवाब दे:
यूज़र्स को स्पष्ट और सही नोटिस देना
यूज़र्स को अपनी पॉलिसी और एन्फ़ोर्समेंट के बारे में स्पष्ट जानकारी देने के लिए ज़रूरी है कि Facebook:
1. यह सुनिश्चित करने के लिए तकनीकी व्यवस्था करे कि यूज़र्स को दिए जाने वाले नोटिस में कंपनी ने उस कम्युनिटी स्टैंडर्ड का संदर्भ दिया हो, जिसके तहत एक्शन लिया गया है. अगर Facebook को पता चलता है कि (i) यूज़र को जिस कम्युनिटी स्टैंडर्ड का संदर्भ दिया गया, उसका उल्लंघन उनका कंटेंट नहीं करता है, और (ii) वह कंटेंट किसी और कम्युनिटी स्टैंडर्ड का उल्लंघन करता है, तो संबंधित यूज़र को इसकी सूचना ठीक तरह से दी जानी चाहिए, साथ ही अपील करने का एक और मौका दिया जाना चाहिए. बोर्ड के समक्ष आने से पहले उनके पास हमेशा सही जानकारी होनी चाहिए.
2. नफ़रत फैलाने वाली भाषा से जुड़े कम्युनिटी स्टैंडर्ड में यूज़र्स के लिए आम भाषा में व्यंग्य से संबंधित अपवाद शामिल करे, जिसके बारे में फ़िलहाल जानकारी नहीं दी गई है.
व्यंग्य से जुड़े मामलों से निपटने के लिए पर्याप्त साधन जुटाए
यूज़र्स के हित में अपनी कंटेंट से जुड़ी सभी पॉलिसी के एन्फ़ोर्समेंट की सटीकता को बेहतर बनाने के लिए ज़रूरी है कि Facebook:
3. सुनिश्चित करे कि व्यंग्य पर आधारित कंटेंट और उससे जुड़े प्रासंगिक संदर्भ का ठीक से मूल्यांकन करने के पर्याप्त साधन हैं. इसमें कंटेंट मॉडरेटर को ये सुविधाएँ दी जानी चाहिए: (i) प्रासंगिक सांस्कृतिक और बैकग्राउंड से जुड़ी जानकारी एकत्र करने के लिए Facebook की लोकल ऑपरेशन टीमों तक पहुँच; और (ii) Facebook की लोकल ऑपरेशन टीमों के साथ परामर्श करने और मूल्यांकन करने के लिए पर्याप्त समय. Facebook को यह सुनिश्चित करना चाहिए कि कंटेंट मॉडरेटर से जुड़ी उनकी पॉलिसी उन्हें बारीकी से छानबीन करने या ऐसी स्थिति में मामले को आगे बढ़ाने के लिए प्रोत्साहित करती हो, जहाँ वह कंटेंट मॉडरेटर यह तय नहीं कर पा रहा हो कि कोई मीम व्यंग्यपूर्ण है या नहीं.
यूज़र्स को यह बताने की सुविधा देना कि उनका कंटेंट पॉलिसी से जुड़े अपवादों के अंतर्गत आता है
अपील के दौरान Facebook के रिव्यू की सटीकता में सुधार लाने के लिए ज़रूरी है कि कंपनी:
4. यूज़र्स को अपनी अपील में यह बताने दे कि उनका कंटेंट नफ़रत फैलाने वाली भाषा से जुड़ी पॉलिसी के किसी एक अपवाद के अंतर्गत आता है. इसमें व्यंग्यात्मक कंटेंट के अपवाद और वह स्थिति शामिल है, जिसमें यूज़र्स नफ़रत फैलाने वाले कंटेंट की निंदा करने या उसे लेकर जागरूकता बढ़ाने के लिए उसे शेयर करते हैं.
5. यह सुनिश्चित करे कि पॉलिसी से जुड़े अपवादों पर आधारित अपीलों को ह्यूमन रिव्यू के लिए प्राथमिकता दी जाए.
*प्रक्रिया सबंधी नोट:
ओवरसाइट बोर्ड के फ़ैसले पाँच सदस्यों के पैनल द्वारा लिए जाते हैं और बोर्ड के अधिकांश सदस्य इन पर सहमति देते हैं. ज़रूरी नहीं है कि बोर्ड के फ़ैसले उसके हर एक मेंबर की निजी राय को दर्शाएँ.
इस केस के फ़ैसले के लिए, बोर्ड की ओर से स्वतंत्र शोध को अधिकृत किया गया. एक स्वतंत्र शोध संस्थान जिसका मुख्यालय गोथेनबर्ग यूनिवर्सिटी में है और छह महाद्वीपों के 50 से भी ज़्यादा समाजशास्त्रियों की टीम के साथ ही दुनिया भर के देशों के 3,200 से भी ज़्यादा विशेषज्ञों ने सामाजिक-राजनैतिक और सांस्कृतिक संदर्भ में विशेषज्ञता मुहैया कराई है. Lionbridge Technologies, LLC कंपनी ने भाषा संबंधी विशेषज्ञता की सेवा दी, जिसके विशेषज्ञ 350 से भी ज़्यादा भाषाओं में अपनी सेवाएँ देते हैं और वे दुनिया भर के 5,000 शहरों से काम करते हैं.