पलट जाना

हैती के पुलिस स्टेशन का वीडियो

ओवरसाइट बोर्ड ने उस वीडियो को हटाने के Meta के फ़ैसले को बदल दिया जिसमें लोगों को हैती के पुलिस स्टेशन में घुसकर, एक सेल को तोड़ने की कोशिश करते हुए और उसमें बंद एक कथित गैंग मेंबर के साथ हिंसा करके उसे डराते-धमकाते हुए दिखाया गया है.

निर्णय का प्रकार

मानक

नीतियां और विषय

विषय
अभिव्यक्ति की स्वतंत्रता, सुरक्षा, हिंसा
सामुदायिक मानक
हिंसा और उकसावा

क्षेत्र/देश

जगह
हैती

प्लैटफ़ॉर्म

प्लैटफ़ॉर्म
Facebook

इस फ़ैसले को हैतियन क्रिओल भाषा में पढ़ने के लिए, यहाँ क्लिक करें.

Pou li desizyon sa an Kreyòl Ayisyen, klike isit la.

सारांश

ओवरसाइट बोर्ड ने Facebook से उस वीडियो को हटाने के Meta के फ़ैसले को पलट दिया जिसमें लोगों को हैती के पुलिस स्टेशन में घुसकर, एक कारागार को तोड़ने की कोशिश करते हुए और उसमें बंद गैंग के एक कथित सदस्य के साथ हिंसा करके उसे डराते-धमकाते हुए दिखाया गया है. बोर्ड ने पाया कि इस वीडियो ने कंपनी की हिंसा और उकसावे से जुड़ी पॉलिसी का उल्लंघन किया था. फिर भी, बोर्ड के अधिकांश सदस्य इस केस में ख़बरों में रहने लायक होने की छूट के संबंध में Meta के मूल्यांकन से असहमत हैं. इनका मानना है कि कंटेंट को हटाने में Meta की ओर से हुई लगभग तीन सप्ताह की देरी से ऑफ़लाइन नुकसान का जोखिम इतना कम हो गया था कि उसे ख़बरों में रहने लायक होने की छूट दी जा सकती थी. इसके अलावा, बोर्ड ने सुझाव दिया कि Meta भरोसेमंद पार्टनर प्रोग्राम के ज़रिए एस्केलेट किए गए कंटेंट पर अपने जवाब की प्रभावकारिता और सामयिकता का मूल्यांकन करे.

केस की जानकारी

मई 2023 में, एक Facebook यूज़र ने एक वीडियो पोस्ट किया, जिसमें आम नागरिकों को पुलिस स्टेशन में घुसकर कारागार को तोड़ने की कोशिश करते हुए और उसमें बंद एक आदमी - जो Meta के अनुसार एक गैंग का संदिग्ध सदस्य है - को यह कहकर धमकाते हुए दिखाया गया है कि “हम ताला तोड़ डालेंगे” और “उसका मरना तय है”. वीडियो के आखिर में, कोई व्यक्ति चिल्लाकर “bwa kale na boudaw” बोल रहा है, जो Meta के अनुसार ग्रुप के लिए एक आह्वान है कि “उस व्यक्ति से ‘ब्वा काले स्टाइल’ में निपटा जाए – दूसरे शब्दों में उसे मार दिया जाए.” Meta के अनुसार “ब्वा काले”, हैती का नागरिक मूवमेंट भी है, जिसमें लोग कानून अपने हाथ में ले लेते हैं. वीडियो में हैतियन क्रियोल में कैप्शन है, जिसमें कहा गया है कि “पुलिस कुछ नहीं कर सकती”. पोस्ट को 500,000 से ज़्यादा बार देखा गया और वीडियो को लगभग 200,000 बार चलाया गया.

हैती अभूतपूर्व असुरक्षा का सामना कर रहा है. गैंग्स सभी क्षेत्रों पर कब्ज़ा कर रही हैं और लोगों को आतंकित कर रही हैं. पुलिस हिंसा पर काबू पाने में विफल रही और कुछ मामलों में सतर्कता समूहों की मदद करती देखी गई. संयुक्त राष्ट्र के मानवाधिकार उच्चायुक्त के अनुसार हैती में एक नया मूवमेंट उभरा है जिसमें इस साल चार महीने की अवधि में “स्थानीय लोगों और सतर्कता समूहों ने 350 से ज़्यादा लोगों को मार डाला.” गैंग ने उन लोगों से इसका बदला लिया जो इस मूवमेंट में शामिल थे या जिन्हें इस मूवमेंट से हमदर्दी थी.

एक भरोसेमंद पार्टनर ने Meta को एक वीडियो पोस्ट किए जाने के 11 दिनों बाद उसे संभावित रूप से उल्लंघन करने वाले वीडियो के रूप में फ़्लैग किया और चेतावनी दी कि उस कंटेंट से हिंसा और भड़क सकती है. Meta का भरोसेमंद पार्टनर प्रोग्राम एक ऐसा नेटवर्क है जिसमें 113 से ज़्यादा देशों के गैर-सरकारी संगठन, मानव जाति के कल्याण के लिए काम करने वाली एजेंसियाँ और मानवाधिकारों के रिसर्चर शामिल हैं. Meta ने बोर्ड को बताया कि "[किसी देश में हिंसा के] जोखिम का स्तर जितना ज़्यादा होगा, भरोसेमंद पार्टनर के साथ रिलेशनशिप कायम करने की प्राथमिकता उतनी ही ज़्यादा होगी" जो कंपनी को ऐसे कंटेंट की रिपोर्ट कर सकते हैं. इस केस में भरोसेमंद पार्टनर की रिपोर्ट के लगभग आठ दिन बाद, Meta ने पाया कि वीडियो में बहुत गंभीर हिंसा करने के इरादे का कथन और बहुत गंभीर हिंसा करने का आह्वान, दोनों शामिल थे और उसने इस कंटेंट को Facebook से हटा दिया. Meta ने हैती में "ब्वा काले" मूवमेंट से जुड़े कंटेंट द्वारा उठाए गए मॉडरेशन संबंधी मुश्किल सवालों का समाधान करने के लिए इस मामले को बोर्ड को भेजा. Meta ने ख़बरों में रहने लायक होने से जुड़ी छूट इसलिए नहीं दी क्योंकि कंपनी ने पाया कि नुकसान का जोखिम ज़्यादा था और हैती में हिंसक प्रतिशोध और हत्याओं के जारी पैटर्न को ध्यान में रखते हुए यह जोखिम पोस्ट की जनहित वैल्यू से ज़्यादा था.

मुख्य निष्कर्ष

बोर्ड ने पाया कि कंटेंट ने Facebook के हिंसा और उकसावे से जुड़े कम्युनिटी स्टैंडर्ड का उल्लंघन किया है क्योंकि कारागार में मौजूद व्यक्ति के साथ-साथ दूसरे लोगों को ऑफ़लाइन नुकसान पहुँचाने का एक प्रामाणिक खतरा था. हालाँकि, बोर्ड के अधिकांश सदस्य, इस केस में ख़बरों में रहने लायक होने की छूट के Meta द्वारा उपयोग से असहमत हैं. पोस्ट करने और एन्फ़ोर्समेंट के बीच लगभग तीन सप्ताह की देरी को देखते हुए, Meta को कंटेंट को बनाए रखने के लिए ख़बरों में रहने लायक होने की छूट देनी चाहिए थी. बोर्ड ने निष्कर्ष निकाला कि ख़बरों में रहने लायक होने का विश्लेषण करते समय नुकसान के जोखिम और जनहित वैल्यू का मूल्यांकन उस समय को ध्यान में रखते हुए किया जाना चाहिए जब Meta कोई छूट देने पर विचार कर रहा हो, न कि उस समय को ध्यान में रखते हुए जब कंटेंट पोस्ट किया गया था. बोर्ड का मानना है कि Meta को यूज़र को यह स्पष्ट करने के लिए ख़बरों में रहने लायक होने की छूट से जुड़ी अपनी भाषा को अपडेट करना चाहिए.

बोर्ड के अधिकांश सदस्यों के अनुसार, कंटेंट को हटाने में Meta की ओर से लगभग तीन सप्ताह की देरी होने से ऑफ़लाइन नुकसान का जोखिम इतना कम हो गया था कि ख़बरों में रहने लायक होने से जुड़ी छूट दी जा सकती थी. इस ग्रुप ने हैती के संदर्भ, पोस्ट की सीमा और पहुँच और एन्फ़ोर्समेंट में देरी की वजह से नुकसान की आशंका पर विचार किया. तब तक, वीडियो को 200,000 बार देखा जा चुका था और अगर उस कंटेंट से कोई जोखिम संभावित था, तो उसका असर पहले ही हो चुका था. इसके अलावा, चूँकि वीडियो हैती और बाहर के लोगों को देश की वास्तविकताओं के बारे में सूचित कर सकता है, इसलिए व्यापक हिंसा और लोक व्यवस्था भंग होने की परिस्थिति में, जानकारी शेयर करना और भी ज़्यादा महत्वपूर्ण हो जाता है, ताकि कम्युनिटी घटनाओं पर प्रतिक्रिया दे सके.

हालाँकि, बोर्ड के कुछ सदस्यों ने पाया कि छूट न देने का Meta का फ़ैसला सही था. चूँकि कंटेंट को बढ़े हुए जोखिम के दौरान पोस्ट किया गया था, इसलिए जब Meta ने कंटेंट का रिव्यू किया, तब तक वीडियो की वजह से अतिरिक्त और प्रतिशोधात्मक हिंसा होने का खतरा टला नहीं था. इन सदस्यों का मानना है कि इन जोखिमों से निपटने के लिए कंटेंट को हटाना ज़रूरी था.

बोर्ड, बढ़े हुए जोखिम की इस अवधि के दौरान हैती में कंटेंट को समय पर मॉडरेट करने की Meta की क्षमता को लेकर चिंतित है. ऐसा लगता है कि इस केस में देरी होना, हैती में कंटेंट को मॉडरेट करने के लिए पर्याप्त रिसोर्स में निवेश करने में कंपनी की विफलता का नतीजा है. Meta, अपने भरोसेमंद पार्टनर की रिपोर्ट का सही समय पर मूल्यांकन करने में नाकाम रहा. भरोसेमंद पार्टनर की रिपोर्ट, Meta के उन मुख्य टूल में से एक है, जिन पर वह हैती में संभावित रूप से उल्लंघन करने वाले कंटेंट की पहचान करने के लिए निर्भर है. एक भरोसेमंद पार्टनर की हालिया रिपोर्ट में पाया गया कि Meta, भरोसेमंद पार्टनर द्वारा पहचाने गए कंटेंट का रिव्यू करने के लिए अपनी टीमों को पर्याप्त रिसोर्स नहीं देता है और उस पर प्रतिक्रिया के समय में बहुत ज़्यादा अनियमितता है.

आखिर में, बोर्ड ने नोट किया कि Meta, हैती में अपने संकट पॉलिसी प्रोटोकॉल को एक्टिवेट करने में नाकाम रहा. Meta ने बोर्ड को बताया कि उसके पास पहले से ही जोखिम कम करने के उपाय मौजूद हैं, लेकिन बोर्ड इस बात से चिंतित है कि इस केस में लंबी देरी से पता चलता है कि मौजूदा उपाय अपर्याप्त हैं. अगर कंपनी ऐसी परिस्थितियों में इस प्रोटोकॉल का उपयोग करने में विफल रहती है, तो यह सामयिक या सैद्धांतिक मॉडरेशन डिलीवर नहीं करेगा, जिससे अपने लक्ष्यों को पूरा करने में प्रोटोकॉल की प्रभावशीलता का आकलन करने की कंपनी और लोगों की क्षमता कम हो जाएगी.

ओवरसाइट बोर्ड का फ़ैसला

ओवरसाइट बोर्ड ने इस कंटेंट हटाने के Meta के फ़ैसले को पलट दिया है और पोस्ट को रीस्टोर करने के लिए कहा है.

बोर्ड ने Meta को सुझाव दिया है कि वह:

  • नुकसान के जोखिम से निपटने के लिए, ख़ास तौर पर, जहाँ Meta के पास कंटेंट की पहचान और आकलन के लिए प्रोएक्टिव मॉडरेशन टूल, प्रोसेस या साधन नहीं हैं या सीमित हैं, वहाँ Meta को भरोसेमंद पार्टनर के ज़रिए एस्केलेट किए गए कंटेंट पर अपनी प्रतिक्रिया की सामयिकता और प्रभावशीलता का मूल्यांकन करे.
  • बोर्ड ने इस मौके पर Meta को रूसी कविता केस के पिछले सुझाव की याद भी दिलाई, जिसमें कंपनी से अपनी हिंसा और उकसावे की पॉलिसी के अपवाद को सार्वजनिक करने का आह्वान किया गया है. यह अपवाद उस कंटेंट की परमिशन देता है जो "हिंसा की निंदा करता है या उसके बारे में जागरूकता फैलाता है", लेकिन यूज़र को Meta के लिए यह स्पष्ट करना होगा कि वे इन दो में से किसी एक कारण से कंटेंट पोस्ट कर रहे हैं. *केस के सारांश से केस का ओवरव्यू पता चलता है और आगे के किसी फ़ैसले के लिए इसको आधार नहीं बनाया जा सकता है.

केस का पूरा फ़ैसला

1: फ़ैसले का सारांश

ओवरसाइट बोर्ड ने एक ऐसी Facebook पोस्ट को हटाने के Meta के फ़ैसले को पलट दिया जिसमें हैती के एक पुलिस स्टेशन में घुसते हुए लोगों के समूह को दिखाने वाला वीडियो था. जब भीड उस तालाबंद कारागार तक पहुँचने की कोशिश कर रही होती है जिसमें एक गैंग का कथित सदस्य बंद है, भीड़ में मौजूद लोग चिल्लाते हैं कि “हम ताला तोड़ डालेंगे” और “उसका मरना तय है” और हिंसा की धमकी वाली अन्य बातें बोलते हैं. बोर्ड ने पाया कि पोस्ट से हिंसा और उकसावे से जुड़ी Meta की पॉलिसी का उल्लंघन हुआ क्योंकि इसमें एक ऐसे संदर्भ में हिंसा को उकसावा दिखाया गया है जहाँ कारागार में मौजूद व्यक्ति के साथ-साथ अन्य लोगों को ऑफ़लाइन नुकसान का प्रामाणिक खतरा है. हालाँकि, बोर्ड के अधिकांश सदस्य, इस केस में ख़बरों में रहने लायक होने की छूट के उपयोग के संबंध में Meta के मूल्यांकन से असहमत हैं. इन अधिकांश सदस्यों का मानना है कि कंटेंट को हटाने में Meta की ओर से हुई लगभग तीन हफ़्तों की देरी के कारण नुकसान का जोखिम काफ़ी हद तक समाप्त हो गया था और पोस्ट की जनहित वैल्यू को देखते हुए Meta को कंटेंट को अपने प्लेटफ़ॉर्म पर बनाए रखना चाहिए था. बोर्ड के कुछ सदस्यों के अनुसार, इस केस में ख़बरों में रहने लायक होने की छूट न देकर Meta ने सही किया क्योंकि जब कंपनी ने कंटेंट का रिव्यू किया, तब हैती में व्यापक रूप से फैली हुई और जारी गैंग और “आत्मरक्षा” या “सतर्कता दलों” संबंधी हिंसा के संदर्भ को देखते हुए अतिरिक्त हिंसा और बदले की हिंसा का जोखिम समाप्त नहीं हुआ था. बोर्ड ने यह भी पाया कि मानवाधिकारों से जुड़ी अपनी ज़िम्मेदारियों की पूर्ति के लिए, Meta को यह सुनिश्चित करना चाहिए कि हैती में बढ़े हुए जोखिम के इस समय में कंटेंट का मॉडरेशन प्रभावी और समय से हो. बोर्ड ने सुझाव दिया कि Meta, भरोसेमंद पार्टनर प्रोग्राम के ज़रिए एस्केलेट किए गए कंटेंट पर अपनी प्रतिक्रिया की सामयिकता और प्रभावशीलता का आकलन करे. इसमें यह शामिल हो कि एस्केलेशन पर समय से प्रतिक्रिया करने में Meta कितना प्रभावी है और भरोसेमंद पार्टनर के एस्केलेशन पर प्रतिक्रिया देने के समय को बेहतर बनाने के लिए Meta कौन-से सुधारात्मक उपाय करेगा.

2: केस की जानकारी और बैकग्राउंड

मई 2023 में, Facebook के एक यूज़र ने एक वीडियो पोस्ट किया जिसका कैप्शन हैतियन क्रिओल भाषा में था. वीडियो में बड़ी संख्या में लोग दिखाई दे रहे हैं जो साधारण कपड़े पहने हुए हैं. वे एक पुलिस स्टेशन में एक ऐसे सेल की ओर बढ़ रहे हैं जिसमें एक पुरुष बंद है. Meta के अनुसार, कारागार में बंद व्यक्ति “5 सेकंड्स गैंग” का संदिग्ध सदस्य है. यह गैंग हैती की हथियारों से अच्छी तरह लैस और प्रमुख गैंग है. वीडियो में यह भी दिखाया गया है कि स्टेशन में मौजूद उस समूह में शामिल एक व्यक्ति उस कारागार का ताला तोड़ने की कोशिश करता है. कई अन्य लोग उसे प्रोत्साहित करते हुए चिल्लाते हैं, जैसे “हम ताला तोड़ डालेंगे” और “उसका मरना तय है.” वीडियो के लगभग समाप्त होते समय, एक व्यक्ति चिल्लाता है - “bwa kale na boudaw.” बोर्ड को केस रेफ़र करते समय Meta ने इस वाक्यांश की व्याख्या करते हुए बताया कि इसका शाब्दिक अर्थ होता है “तुम्हारी गुदा में लकड़ी का डंडा” और संदर्भ के अनुसार यह समूह के लिए “व्यक्ति से ‘ब्वा काले स्टाइल’ में निपटने — दूसरे शब्दों में उसे मार डालने” का आह्वान है. Meta के अनुसार “bwa kale” शब्द इसी नाम के एक नागरिक आंदोलन की ओर इशारा करता है जिसमें लोग, गैंग के कथित सदस्यों का फ़ैसला खुद अपने ही हाथों करना चाहते हैं.

वीडियो में एक कैप्शन भी है जिसमें घटना के बारे में बताया गया है और यह भी कहा गया है कि पुलिस “कुछ भी नहीं कर सकती, स्थिति और भी खराब होने वाली है.” बोर्ड ने जिन भाषाई विशेषज्ञों से परामर्श किया, उनके अनुसार कैप्शन बताता है कि लोगों का पुलिस से भरोसा उठ गया है और बेबाक रूप से बताता है कि आगे क्या होने वाला है. पोस्ट को 500,000 से ज़्यादा बार देखा गया और वीडियो को 200,000 से ज़्यादा बार चलाया गया.

एक भरोसेमंद पार्टनर ने Meta को Facebook पर वीडियो पोस्ट किए जाने के 11 दिनों बाद उसे संभावित रूप से उल्लंघन करने वाले वीडियो के रूप में फ़्लैग किया और चेतावनी दी कि उस कंटेंट से हिंसा और भड़क सकती है. Meta ने कंटेंट का आकलन किया और उसे अपने हिंसा और उकसावे से जुड़े कम्युनिटी स्टैंडर्ड का उल्लंघन करने के कारण Facebook से हटा दिया. Meta का भरोसेमंद पार्टनर प्रोग्राम एक ऐसा नेटवर्क है जिसमें दुनिया भर के 113 से ज़्यादा देशों के गैर-सरकारी संगठन, मानव जाति के कल्याण के लिए काम करने वाली एजेंसियाँ, मानवाधिकारों की रक्षा करने वाले लोग और शोधकर्ता शामिल हैं. Meta ने बोर्ड को बताया कि "[किसी देश में हिंसा के] जोखिम का स्तर जितना ज़्यादा होगा, भरोसेमंद पार्टनर के साथ रिलेशनशिप कायम करने की प्राथमिकता उतनी ही ज़्यादा होगी." भरोसेमंद पार्टनर, Meta को कंटेंट की रिपोर्ट कर सकते हैं और कंपनी की कंटेंट पॉलिसी और एन्फ़ोर्समेंट पर फ़ीडबैक दे सकते हैं. इस केस में, भरोसेमंद पार्टनर की रिपोर्ट के आठ दिन बाद, Meta ने पाया कि वीडियो में बहुत गंभीर हिंसा करने के इरादे का कथन और बहुत गंभीर हिंसा करने का आह्वान, दोनों शामिल थे और उसने कंटेंट को हटा दिया.

बोर्ड के फ़ैसले के लिए नीचे दिया गया संदर्भ प्रासंगिक है. हैती “अभूतपूर्व असुरक्षा” का सामना कर रहा है. गैंग्स सभी क्षेत्रों पर कब्ज़ा कर रहे हैं और लोगों को आतंकित कर रहे हैं. पुलिस हिंसा को रोकने में नाकामयाब रही है और कुछ मामलों में वह हिंसा में शामिल बताई गई है. हैती में संयुक्त राष्ट्र के विशेष प्रतिनिधि के अनुसार, “वर्ष की पहली तिमाही में 1,647 आपराधिक घटनाएँ – हत्याएँ, बलात्कार, अपहरण और लिंचिंग – रिकॉर्ड की गईं.” यह संख्या 2022 की इसी अवधि की संख्या की दोगुनी से भी ज़्यादा है. हिंसा में यह बढ़ोतरी एक राजनैतिक और मानवतावादी संकट के बीच हुई है. 2021 में राष्ट्रपति जोवेनेल मोइस की हत्या के बाद से हैती में चुनी हुई सरकार नहीं है और यह देश कालरा महामारी और प्राकृतिक आपदाएँ झेल रहा है. मार्च 2023 में मेडेसिन्स सैन्स फ़्रंटियर्स (MSF) ने देश की राजधानी में गहन हिंसा के कारण अपना एक अस्पताल कथित रूप से बंद कर दिया. कार्यकारी प्रधानमंत्री एरियल हेनरी ने अंतरराष्ट्रीय कम्युनिटी से बार-बार यह अपील की है कि वे गैंग नियंत्रण से निपटने के लिए बहुराष्ट्रीय बल भेजे. उन्होंने कहा कि “देश में फिर से काम करने लायक माहौल बनाने के लिए” यह पहला ज़रूरी कदम है.

बढ़ती हिंसा के जवाब में और लोगों की सुरक्षा में सरकार या पुलिस के नाकाम होने के कारण “ब्वा काले” नाम का एक नागरिक मूवमेंट उभरा है. 24 अप्रैल, 2023 को हुई एक कथित व्यापक घटना, इस मूवमेंट का एक मह्तवपूर्ण पल रही है. इसमें हैती की पुलिस ने 14 हथियारबंद लोगों को ले जा रही बस को रोका, जो कथित रूप से पास के जिले में एक सहयोगी गैंग में शामिल होने जा रहे थे और घटनास्थल पर भारी भीड़ इकट्ठी हो गई. भीड़ ने गैंग के कथित सदस्यों पर पथराव शुरू कर दिया और उन्हें ज़िंदा जला दिया. इस दौरान पुलिस पीछे हट गई और उनमें से कुछ पुलिसकर्मी मदद करते देखे गए. इस घटना की रिकॉर्डिंग सोशल मीडिया पर व्यापक रूप से शेयर की गई. हैती के नेशनल ह्यूमन राइट्स डिफ़ेंस नेटवर्क की एक रिपोर्ट के अनुसार, सोशल मीडिया पर इन रिकॉर्डिंग के फैलने के बाद, “आग्नेयास्त्रों, चाकुओं और टायरों से लैस अन्य लोगों ने भी गैंग के हथियारबंद सदस्यों, उनके रिश्तेदारों या उनसे संबंधित अन्य संदिग्ध लोगों को ढूँढना शुरू कर दिया ताकि उन्हें मार डाला जा सके.” संयुक्त राष्ट्र के मानवाधिकार उच्चायुक्त के अनुसार, 24 अप्रैल और मध्य अगस्त के बीच “350 से ज़्यादा लोगों को स्थानीय लोगों और सतर्कता समूहों द्वारा मार दिया गया.” गैंग ने उन लोगों से इसका बदला लिया जो इस मूवमेंट में शामिल थे या जिन्हें इस मूवमेंट से हमदर्दी थी.

2 अक्टूबर, 2023 को संयुक्त राष्ट्र सुरक्षा परिषद ने हैती में एक वर्ष के लिए बहुराष्ट्रीय सुरक्षा मिशन को अधिकृत किया. रिपोर्ट के अनुसार, बलों को हैती के लिए रवाना होने में कई महीनों का समय लगेगा.

3: ओवरसाइट बोर्ड की अथॉरिटी और स्कोप

बोर्ड के पास उन फ़ैसलों को रिव्यू करने का अधिकार है, जिन्हें Meta रिव्यू के लिए सबमिट करता है (चार्टर अनुच्छेद 2, सेक्शन 1; उपनियम अनुच्छेद 2, सेक्शन 2.1.1).

बोर्ड, Meta के फ़ैसले को कायम रख सकता है या उसे बदल सकता है (चार्टर अनुच्छेद 3, सेक्शन 5) और उसका फ़ैसला कंपनी पर बाध्यकारी होता है (चार्टर अनुच्छेद 4). Meta को मिलते-जुलते संदर्भ वाले समान कंटेंट पर अपने फ़ैसले को लागू करने की संभावना का भी आकलन करना चाहिए (चार्टर अनुच्छेद 4). बोर्ड के फ़ैसलों में गैर-बाध्यकारी सलाह शामिल हो सकती हैं, जिन पर Meta को जवाब देना ज़रूरी है (चार्टर अनुच्छेद 3, सेक्शन 4; अनुच्छेद 4). जहाँ Meta, सुझावों पर एक्शन लेने की प्रतिबद्धता व्यक्त करता है, वहाँ बोर्ड उनके क्रियान्वयन की निगरानी करता है.

4: अथॉरिटी और मार्गदर्शन के सोर्स

इस केस में बोर्ड ने इन स्टैंडर्ड और पुराने फ़ैसलों को ध्यान में रखते हुए विश्लेषण किया:

I. ओवरसाइट बोर्ड के फ़ैसले

ओवरसाइट बोर्ड के कुछ सबसे प्रासंगिक पुराने फ़ैसलों में ये शामिल हैं:

II. Meta की कंटेंट पॉलिसीज़

हिंसा और उकसावे से जुड़ी Meta की पॉलिसी “ऐसे संभावित ऑफ़लाइन नुकसान को रोकने के लिए बनाई गई है, जो Facebook पर मौजूद कंटेंट से संबंधित हो सकता है.” पॉलिसी बनाने के कारण में नोट किया गया है कि हिंसा के सभी आह्वानों का शाब्दिक अर्थ नहीं होता और उनसे हिंसा भड़कने की आशंका नहीं होती, इसलिए कंपनी “भाषा और संदर्भ पर विचार करके अनौपचारिक बयानों को उस कंटेंट से अलग करने की कोशिश करती है जिनसे लोगों की या निजी सुरक्षा को प्रामाणिक खतरा होता है.” पॉलिसी के नियम “ऐसे कथनों को प्रतिबंधित करते हैं जिनका इरादा बहुत गंभीर हिंसा करने का होता है” और “जो बहुत गंभीर हिंसा करने का आह्वान करते हैं.” Meta, बहुत गंभीर हिंसा को ऐसे खतरे के रूप में परिभाषित करता है जिससे किसी व्यक्ति की मृत्यु हो सकती है या जो जानलेवा हो सकता है. पॉलिसी बनाने के कारण के भाग के रूप में Meta ने बताया कि कंपनी, “आतंकवादियों और अन्य हिंसक लोगों को दी गई आकांक्षापूर्ण या सशर्त धमकियों (जैसे ‘आतंकवादियों को तो मार ही दिया जाना चाहिए’) को देखती है और उन्हें अप्रामाणिक मानती है, जब तक उनके प्रामाणिक होने का कोई ख़ास सबूत मौजूद न हो.”

बोर्ड के विश्लेषण में Meta की अभिव्यक्ति की प्रतिबद्धता, जिसे कंपनी “सर्वोपरि” बताती है, और उसकी “सुरक्षा” की वैल्यू को भी ध्यान में रखा गया. अभिव्यक्ति की आज़ादी की व्याख्या करते हुए Meta ने कहा कि "कुछ मामलों में, हम ऐसे कंटेंट को परमिशन देते हैं जो वैसे तो हमारे स्टैंडर्ड के अनुसार नहीं होता, लेकिन जो ख़बरों में रहने लायक और जनहित में होता है." इसे ख़बरों में रहने लायक होने की छूट कहा जाता है. यह पॉलिसी का एक ऐसा सामान्य अपवाद है जो सभी कम्युनिटी स्टैंडर्ड पर लागू होता है. यह छूट संभावित रूप से लागू करने के लिए, Meta एक संतुलन टेस्ट करता है, जिसमें कंटेंट के जनहित और नुकसान के जोखिम का आकलन किया जाता है. Meta “कंटेंट के कुछ हद तक ख़बरों में रहने लायक होने पर उस स्थिति में उसे हटा देता है, जब उसके बने रहने से नुकसान होने का खतरा हो, जैसे कि शारीरिक, भावनात्मक या आर्थिक नुकसान या लोगों की सुरक्षा को सीधा खतरा.”

III. Meta की मानवाधिकारों से जुड़ी ज़िम्मेदारियाँ

बिज़नेस और मानवाधिकारों के बारे में संयुक्त राष्ट्र संघ के मार्गदर्शक सिद्धांत (UNGP), जिन्हें 2011 में संयुक्त राष्ट्र संघ की मानवाधिकार समिति ने स्वीकृति दी है, प्राइवेट बिज़नेस की मानवाधिकार से जुड़ी ज़िम्मेदारियों का स्वैच्छिक ढाँचा तैयार करते हैं. 2021 में Meta ने मानवाधिकारों से जुड़ी अपनी कॉर्पोरेट पॉलिसी की घोषणा की, जिसमें उसने UNGP के अनुसार मानवाधिकारों का ध्यान रखने की अपनी प्रतिबद्धता दोहराई.

इस केस में बोर्ड ने Meta की मानवाधिकार से जुड़ी ज़िम्मेदारियों का विश्लेषण इन अंतरराष्ट्रीय स्टैंडर्ड को ध्यान में रखते हुए किया:

· विचार और अभिव्यक्ति की आज़ादी के अधिकार: अनुच्छेद 19, नागरिक और राजनैतिक अधिकारों पर अंतरराष्ट्रीय प्रतिज्ञापत्र ( ICCPR), सामान्य टिप्पणी सं. 34, मानवाधिकार समिति, 2011; विचार और अभिव्यक्ति की स्वतंत्रता के बारे में संयुक्त राष्ट्र संघ के ख़ास रैपर्टर की रिपोर्ट: A/HRC/38/35 (2018) और A/74/486 (2019).

· जीवन का अधिकार: अनुच्छेद 6, ICCPR.

· नफ़रत के ऐसे समर्थन पर प्रतिबंध जिससे भेदभाव, विद्वेष या हिंसा को उकसावा मिलता हो: आर्टिकल 20, पैरा. 2, ICCPR; रबात एक्शन प्लान, संयुक्त राष्ट्र मानवाधिकार उच्चायुक्त की रिपोर्ट: A/HRC/22/17/Add.4 (2013).

5: यूज़र सबमिशन

Meta के रेफ़रल और बोर्ड द्वारा केस स्वीकार करने के फ़ैसले के बाद, यूज़र को बोर्ड के रिव्यू की सूचना का मैसेज भेजा गया और उन्हें बोर्ड के सामने बयान देने का मौका दिया गया. यूज़र ने कोई कथन सबमिट नहीं किया.

6: Meta के सबमिशन

Meta ने पाया कि वीडियो से कारागृह में बंद व्यक्ति, जो Meta के अनुसार “5 सेकंड्स गैंग” का संदिग्ध सदस्य है, के खिलाफ़ बहुत गंभीर हिंसा करने के इरादा और बहुत गंभीर हिंसा करने के आह्वान दोनों दिखाई देता है. “5 सेकंड्स गैंग” हैती की एक प्रमुख गैंग है, जिसे इस मान्यता के कारण जाना जाता है कि “उस गैंग के सदस्य 5 सेकंड में एक व्यक्ति को मार देंगे.” वीडियो में भीड़ के एक सदस्य को यह कहते हुए सुना जा सकता है कि “हम ताला तोड़ डालेंगे…उसका मरना तय है,” जिसे Meta ने व्यक्ति को मार डालने के इरादे का कथन माना. Meta ने “bwa kale na boudaw” को भी व्यक्ति को मार डालने का आह्वान समझा. Meta ने विचाराधीन कंटेंट द्वारा उत्पन्न नुकसान के जोखिम की पृष्ठभूमि के रूप में हैती की राजनैतिक, सुरक्षा और मानवतावादी स्थिति का व्यापक विश्लेषण उपलब्ध कराया. Meta ने यह भी कहा कि गैंग हिंसा देश की ऐसी समस्या बन गई है जिससे छुटकारा नहीं पाया जा सकता क्योंकि सरकारी अधिकारी अपने अधिकारों का उपयोग नहीं कर पा रहे और यह कि “सतर्कता के कारण अदालत से बाहर दंड देने वाली हिंसा की संस्कृति को बढ़ावा मिल रहा है.”

Meta ने अपने विश्लेषण के भाग के रूप में कम्युनिटी स्टैंडर्ड के दो ख़ास अपवादों के साथ-साथ ख़बरों में रहने लायक होने की छूट पर भी विचार किया. Meta के अनुसार, हिंसा और उकसावे से जुड़ी पॉलिसी का उल्लंघन करने वाले कंटेंट को तब परमिशन देगी जब “उसे हिंसा के बारे में जागरूकता फैलाने या उसकी निंदा करने के उद्देश्य से शेयर किया जाए. उनमें से किसी एक उद्देश्य को इरादे के रूप में स्पष्ट करने की ज़िम्मेदारी यूज़र की होगी.” इस केस में, Meta को ऐसा कोई इरादा नहीं मिला कि पोस्ट का उद्देश्य निंदा करना या जागरूकता फैलाना है. Meta के अनुसार, यह तथ्य कि वीडियो को ऐसे Facebook पेज पर शेयर किया गया था जो खुद को मीडिया का पेज बताता है, इस अपवाद की पूर्ति के लिए पर्याप्त नहीं है.

Meta ने यह भी कहा कि कभी-कभी वह कंटेंट में बहुत गंभीर हिंसा के आह्वान को तब परमिशन देता है जब उसका टार्गेट ऐसा व्यक्ति या एंटिटी हो जो Meta की खतरनाक संगठनों और लोगों (DOI) से जुड़ी पॉलिसी में मौजूद हो. Meta के अनुसार, यह अपवाद सिर्फ़ तभी लागू होता है जब कंपनी ने यह कन्फ़र्म किया हो कि टार्गेट, खतरनाक संगठन या व्यक्ति या उसका सदस्य है. Meta ने बोर्ड को यह सूचित किया कि कंपनी ने “5 सेकंड्स गैंग” को खतरनाक संगठन चिह्नित किया है. हालाँकि, कंपनी यह कन्फ़र्म नहीं कर पाई कि वीडियो में कारागार में मौजूद व्यक्ति इस गैंग का सदस्य है. अगर Meta उसकी सदस्यता कन्फ़र्म कर पाता, तो कंपनी के अनुसार कंटेंट कॉल टू एक्शन पर प्रतिबंध का उल्लंघन नहीं करता.

अंत में, यह विचार करते समय कि ख़बरों में रहने लायक होने की छूट देनी है या नहीं, Meta ने पाया कि पोस्ट से होने वाले नुकसान का जोखिम, उसकी जनहित वैल्यू से ज़्यादा था. Meta ने पाया कि वीडियो से या तो “5 सेकंड्स गैंग” या ब्वा काले मूवमेंट के खिलाफ़ हिंसा हो सकती थी. भले ही कंटेंट से निकट हिंसा और आने वाली घटनाओं की जानकारी लोगों को मिल सकती थी, लेकिन Meta के अनुसार ब्वा काले मूवमेंट को मिले व्यापक कवरेज के कारण वह वैल्यू समाप्त हो गई थी.

यह आकलन करते समय कि क्या पोस्ट से हिंसा के उकसावे में मदद मिलती है, Meta ने संयुक्त राष्ट्र के रबात एक्शन प्लान के कारकों पर विचार किया और इस निष्कर्ष पर पहुँचा कि “उसकी भाषा से निकट हिंसा को उकसावा मिलता है” क्योंकि धमकी “जारी हिंसक घटनाओं से विशेष रूप से जुड़ी हुई थी.”

बोर्ड के सवालों के जवाब में, Meta ने बोर्ड को बताया कि कंपनी ने संकट पॉलिसी प्रोटोकॉल (CPP) के तहत हैती की स्थिति को एक संकट के रूप में चिह्नित नहीं किया क्योंकि कंपनी ने अगस्त 2022 में प्रोटोकॉल को लॉन्च करते समय ही ऐसी घटनाओं को कम करने के उपाय कर लिए थे.

बोर्ड ने Meta से 18 लिखित सवाल पूछे. सवाल इन विषयों पर आधारित थे: हैती में Meta के कम्युनिटी स्टैंडर्ड को एन्फ़ोर्स करने की कंपनी की भाषाई क्षमता; भरोसेमंद पार्टनर से प्राप्त रिपोर्ट का रिव्यू करने की प्रोसेस और प्रोग्राम उन अन्य सिस्टमों से किस तरह जुड़ा है जिनका उपयोग Meta संकट की स्थितियों में करता है; और क्या Meta ने हैती में संकट पॉलिसी प्रोटोकॉल का उपयोग किया और अगर किया तो कैसे किया. Meta ने सभी सवालों के जवाब दिए.

7: पब्लिक कमेंट

ओवरसाइट बोर्ड को नौ पब्लिक कमेंट मिले. सात कमेंट अमेरिका और कनाडा से, एक कमेंट एशिया पैसिफ़िक और ओशियानिया से और एक कमेंट यूरोप से सबमिट किए गए थे.

इस केस को लेकर लोगों की ओर से सबमिट किए गए कमेंट देखने के लिए कृपया यहाँ क्लिक करें.

8: ओवरसाइट बोर्ड का विश्लेषण

बोर्ड ने इस बात का परीक्षण किया कि क्या Meta की कंटेंट पॉलिसी, मानवाधिकार ज़िम्मेदारियों और वैल्यू का विश्लेषण करके इस कंटेंट को हटा दिया जाना चाहिए. बोर्ड ने यह भी आकलन किया कि कंटेंट गवर्नेंस को लेकर Meta के व्यापक दृष्टिकोण पर इस केस का क्या असर पड़ेगा.

बोर्ड ने अत्यंत असुरक्षा औण हिंसा के संदर्भ में सोशल मीडिया की भूमिका का परीक्षण करने और यह जानने के लिए इस केस का चयन किया कि Meta की पॉलिसीज़ और एन्फ़ोर्समेंट सिस्टम, जारी संकट के दौरान शेयर किए जाने वाले कंटेंट का समाधान किस तरह करते हैं. यह केस बोर्ड की संकट और संघर्ष की परिस्थितियों वाली रणनीतिक प्राथमिकता के तहत आता है.

8.1 Meta की कंटेंट पॉलिसी का अनुपालन

बोर्ड ने यह पाया कि इस केस से जुड़ा कंटेंट हिंसा और उकसावे के कम्युनिटी स्टैंडर्ड का उल्लंघन करता है. फिर भी, बोर्ड के अधिकांश सदस्य, ख़बरों में रहने लायक होने की छूट के उपयोग के संबंध में Meta के मूल्यांकन से असहमत हैं. इन अधिकांश सदस्यों के अनुसार, एन्फ़ोर्समेंट में लगभग तीन सप्ताह की देरी को देखते हुए, Meta को ख़बरों में रहने लायक होने की छूट देते हुए कंटेंट को उस समय Facebook पर बनाए रखना चाहिए था जब Meta ने कंटेंट का रिव्यू किया.

I.कंटेंट नियम

a.हिंसा और उकसावा

Meta “ऐसे कथनों को प्रतिबंधित करता है जिनका इरादा बहुत गंभीर हिंसा करने का होता है” और “जो बहुत गंभीर हिंसा करने का आह्वान करते हैं.” बोर्ड ने पाया कि कंटेंट से दोनों पॉलिसी लाइन का उल्लंघन होता है. कंटेंट से एक ऐसे संदर्भ में हिंसा को उकसावा मिलता है जहाँ कारागार में मौजूद व्यक्ति के साथ-साथ अन्य लोगों को ऑफ़लाइन नुकसान का प्रामाणिक खतरा है. वीडियो में दिखाया गया है कि लोगों की भीड़ एक ऐसे कारागार को तोड़ने की कोशिश करती है जिसमें एक ऐसा व्यक्ति बंद है जो एक गैंग का कथित सदस्य है. भीड़ में लोग चिल्ला रहे हैं कि वे कारागार तोड़ देंगे और वह व्यक्ति तो “मर ही गया समझो.” ये ऐसे कथन हैं जो घातक बल का उपयोग करने का इरादा दिखाते हैं. भीड़ का एक सदस्य चिल्लाता है “bwa kale na boudaw,” जो एक ऐसा वाक्यांश है जो हैती के संदर्भ में बहुत गंभीर हिंसा का आह्वान दिखाता है. भले ही “bwa kale” का उपयोग म्यूज़िक और राजनैतिक संदेशों सहित कई संदर्भों में किया गया है, लेकिन इस केस में इस वाक्यांश का उपयोग ऐसे संदर्भ में किया गया है जो ऐसी घातक घटनाएँ दिखाता है जिनमें नागरिकों द्वारा गैंग के संदिग्ध सदस्यों या उनके साथियों को मार दिया गया.

Meta, हिंसा और उकसावे से जुड़ी पॉलिसी का उल्लंघन करने वाले कंटेंट को उस स्थिति में प्लेटफ़ॉर्म पर बने रहने की परमिशन देता है जब उसे “जागरूकता फैलाने या हिंसा की निंदा करने के लिए” शेयर किया जाए. ये अपवाद, पॉलिसी की लोगों को दिखाई देने वाली भाषा में शामिल नहीं हैं, लेकिन कंटेंट मॉडरेटर्स को दिए जाने वाले आंतरिक निर्देशों में यह कहा गया है. कंपनी यह अपवाद लागू करे, इसके लिए यूज़र को यह स्पष्ट करना ज़रूरी है कि वे इन दो में से एक कारण से कंटेंट पोस्ट कर रहे हैं.

बोर्ड ने पाया कि यूज़र ने इस केस में इस ज़रूरत की पूर्ति नहीं की; इसलिए, कंटेंट को इस अपवाद का फ़ायदा नहीं मिला, जैसा कि Meta द्वारा परिभाषित किया गया है. वीडियो से जुड़ा कैप्शन वर्णनात्मक है और इस कथन के साथ समाप्त होता है कि “पुलिस कुछ नहीं कर सकती, स्थिति और बुरी होने वाली है.” वीडियो का वर्णन करने या निष्पक्ष या अस्पष्ट कैप्शन देने से Meta द्वारा तय स्टैंडर्ड की पूर्ति नहीं होती.

Meta कभी-कभी बहुत गंभीर हिंसा के आह्वान की परमिशन भी देता है, जब टार्गेट किसी चिह्नित खतरनाक संगठन का सदस्य या व्यक्ति होता है. यह अपवाद हिंसा और उकसावे से जुड़ी पॉलिसी के लिए Meta के पॉलिसी बनाने के कारण में बताया गया है, लेकिन यह नियमों में नहीं बताया गया है. बोर्ड ने यह माना कि यह अपवाद इस केस पर लागू नहीं होता है. हालाँकि, बोर्ड ने इस अपवाद से जुड़ी कई चिंताएँ नोट कीं. पहली, यह अपवाद कम्युनिटी स्टैंडर्ड की लोगों को दिखाई देने वाली भाषा में स्पष्ट रूप से नहीं बताया गया है. दूसरी, Meta की पॉलिसी में चिह्नित लोगों और संगठनों की लिस्ट सार्वजनिक नहीं है, इसलिए किसी यूज़र को यह जानकारी मिलने का कोई ज़रिया नहीं है कि यह अपवाद उनके कंटेंट पर किस तरह लागू होगा. बोर्ड ने बार-बार यह सुझाव दिया है कि Meta को खतरनाक संगठनों और लोगों से जुड़ी पॉलिसी के बारे में ज़्यादा स्पष्टता और पारदर्शिता देनी चाहिए (न्यूज़ रिपोर्टिंग में तालिबान का उल्लेख; अल जज़ीरा की शेयर की गई पोस्ट; ओजलान का एकांतवास; और नाज़ी उद्धरण देखें). अंत में, Meta के अनुसार इस अपवाद को लागू करने में धमकी की प्रामाणिकता पर विचार नहीं किया जाता है. अगर टार्गेट एक चिह्नित एंटिटी या हिंसक व्यक्ति है, तो कंटेंट को उल्लंघन करने वाला नहीं माना जाता. बोर्ड ने इस बात को समस्याप्रद माना कि खतरनाक संगठनों और लोगों से जुड़ी पॉलिसी, जो अस्पष्ट है, में चिह्नित किसी भी व्यक्ति के खिलाफ़ प्रामाणिक धमकियों को हिंसा और उकसावे से जुड़े कम्युनिटी स्टैंडर्ड से छूट मिल जाती है.

b. ख़बरों में रहने लायक होने की छूट

बोर्ड ने पाया कि कंटेंट से हिंसा और उकसावे से जुड़े कम्युनिटी स्टैंडर्ड का उल्लंघन होता है, लेकिन बोर्ड के अधिकांश सदस्यों का मानना है कि इस केस में Meta द्वारा ख़बरों में रहने लायक होने की छूट का गलत उपयोग किया गया. पहला, बोर्ड ने नोट किया कि जब Meta छूट देने पर विचार करे, तो उसे ख़बरों में रहने लायक होने के विश्लेषण के संबंध में उस समय के नुकसान के जोखिम और जनहित वैल्यू का आकलन करना चाहिए, न कि उस समय के जब यूज़र ने कंटेंट पोस्ट किया था. Meta को यूज़र को यह स्पष्ट करने के लिए ख़बरों में रहने लायक होने की छूट की लोगों को दिखाई देने वाली भाषा को अपडेट करना चाहिए. सबसे अच्छा तो यह होगा कि अलग-अलग परिणामों से बचने के लिए इन दोनों समयों के बीच कम से कम अंतर हो, ख़ास तौर पर पूरे देश में फैली और बढ़ रही हिंसा के संदर्भ में. खेदजनक रूप से, इस केस में यूज़र द्वारा कंटेंट पोस्ट किए जाने के लगभग तीन हफ़्ते बाद Meta ने कंटेंट को हटाया.

बोर्ड के अधिकांश सदस्यों ने पाया कि जब Meta ने यह फ़ैसला लिया, तब तक नुकसान का जोखिम काफ़ी हद तक समाप्त हो चुका था (अर्थात वीडियो में दर्शाए गए उकसावे को पोस्ट किए जाने के लगभग तीन हफ़्ते बाद) और Meta को छूट देते हुए कंटेंट को बनाए रखना चाहिए था. जब हैती अंतरराष्ट्रीय सहायता और हस्तक्षेप की ज़रूरत महसूस कर रहा था, तब वीडियो से हैती और बाहर के लोगों को यह जानकारी मिलने की संभावना थी कि हिंसा की वास्तविकता क्या है और लोक व्यवस्था किस तरह चरमरा गई है. वीडियो में पहचाने जा सकने वाले लोगों सहित, कंटेंट से चाहे जो जोखिम हुआ हो, वह उस समय तक काफ़ी कम हो चुका था जब Meta ने उसे छूट दी, जैसी कि नीचे सेक्शन 8.2 (iii) के विश्लेषण में विस्तार से चर्चा की गई है. अगर Meta, कंटेंट को पोस्ट किए जाने के कुछ समय बाद ही उसका रिव्यू कर लेता, तो नुकसान का जोखिम पोस्ट की जनहित वैल्यू से ज़्यादा होता, जैसा कि भारत के ओडिशा राज्य में सांप्रदायिक दंगे केस में हुआ. उस केस में, Meta ने कंटेंट को पोस्ट किए जाने के कुछ दिन बाद ही उसका पता लगाते हुए उसे हटा दिया. यह ऐसा समय था जब तनाव बढ़ा हुआ था और हिंसा जारी थी और कंटेंट से हिंसा और भड़कने का गंभीर और संभावित जोखिम था जिसने कंटेंट की जनहित वैल्यू को कम कर दिया. इस केस में Meta ने कंटेंट का रिव्यू करने में बहुत देरी कर दी जिससे नुकसान का जोखिम काफ़ी हद तक समाप्त हो गया था. इसके चलते इस समयावधि में हैती की स्थिति के बारे में व्यापक जनता को व्यवस्था की स्थिति की जानकारी पाने की जनहित वैल्यू ज़्यादा हो गई थी. जिस समय तक Meta ने ख़बरों में रहने लायक होने से जुड़ा आकलन किया, तब तक पोस्ट को 500,000 बार देखा जा चुका था और अगर वीडियो से नुकसान का कोई जोखिम था, तो वह उस समय तक पहले ही हो चुका था. चूँकि ख़बरों में रहने लायक होने का आकलन तब किया जाता है जब Meta की आंतरिक टीमों द्वारा एस्केलेशन किया जाता है, इसलिए Meta के पास ऐसे रिसोर्स और विशेषज्ञ हैं जो ज़्यादा संदर्भ संवेदी आकलन कर सकते हैं और वह निर्धारण करते समय परिस्थितियों में हुए बदलाव पर ध्यान दे सकते हैं.

हालाँकि, बोर्ड के कुछ सदस्यों ने कहा कि इस केस में Meta ने ख़बरों में रहने लायक होने की छूट न देकर सही किया. वीडियो में दिखाए गए व्यक्ति को नुकसान का जोखिम उसे पोस्ट किए जाने के कुछ दिनों बाद तक बहुत ज़्यादा था, लेकिन जब Meta ने कंटेंट का रिव्यू किया, तब हैती में व्यापक रूप से फैली हुई और जारी हिंसा और असुरक्षा के संदर्भ को देखते हुए अतिरिक्त हिंसा और बदले की हिंसा का जोखिम समाप्त नहीं हुआ था. इसलिए, कंटेंट को प्लेटफ़ॉर्म पर बनाए रखने से जुड़े जोखिम तब भी ऐसी भाषा को लोगों तक पहुँचाने से ज़्यादा थे, जैसी कि नीचे सेक्शन 8.2 (iii) में विस्तार से बताया गया है. यह जोखिम तब तक समाप्त नहीं हुआ था कि इस वीडियो को देखने के बाद अन्य लोग हथियार उठा लेते, मूवमेंट में शामिल हो जाते और किसी व्यक्ति को दंड देते. इनमें यह आशंका समाप्त नहीं हुई थी कि “5 सेकंड्स गैंग” या किसी सहयोगी गैंग का कोई सदस्य, वीडियो में मौजूद किसी व्यक्ति को पहचान लेता और उनसे बदला लेना चाहता, चाहे वह ब्वा काले मूवमेंट का सदस्य होता या पुलिस बल का कोई सदस्य. बोर्ड के इन सदस्यों ने कहा कि इस तथ्य को देखते हुए कि वीडियो में मौजूद कई लोगों को पहचाना जा सकता था और बदले का जोखिम मौजूद और जारी था, कंटेंट का रिव्यू होने में देरी के बावजूद भी उसे छूट का फ़ायदा नहीं दिया जाना चाहिए था.

8.2 Meta की मानवाधिकारों से जुड़ी ज़िम्मेदारियों का अनुपालन

बोर्ड के अधिकांश सदस्यों ने पाया कि कंटेंट को पोस्ट किए जाने के तीन हफ़्तों बाद उसे हटाना आवश्यक और आनुपातिक नहीं था और पोस्ट को Facebook पर रीस्टोर करना Meta की मानवाधिकार से जुड़ी ज़िम्मेदारियों के अनुसार सही था. बोर्ड ने यह भी पाया कि मानवाधिकारों से जुड़ी अपनी ज़िम्मेदारियों की पूर्ति के लिए, Meta को यह सुनिश्चित करना चाहिए कि हैती में बढ़े हुए जोखिम के इस समय में कंटेंट का मॉडरेशन प्रभावी और समय से हो.

अभिव्यक्ति की आज़ादी (अनुच्छेद 19 ICCPR)

ICCPR का अनुच्छेद 19, अभिव्यक्ति को व्यापक सुरक्षा प्रदान करता है, जिसमें “किसी व्यक्ति के अपने और सार्वजनिक मामलों पर कमेंटरी करना” शामिल है. साथ ही ऐसी अभिव्यक्ति भी शामिल है जिसे लोग आपत्तिजनक मान सकते हैं (सामान्य कमेंट 34, पैरा. 11). जहाँ कोई देश, अभिव्यक्ति पर प्रतिबंध लगाता है, वहाँ प्रतिबंधों को वैधानिकता, वैधानिक लक्ष्य और आवश्यकता तथा आनुपातिकता की शर्तों को पूरा करना चाहिए (अनुच्छेद 19, पैरा. 3, ICCPR). इन आवश्यकताओं को अक्सर “तीन भागों वाला परीक्षण” कहा जाता है. Meta की स्वैच्छिक मानवाधिकार प्रतिबद्धताओं को समझने के लिए बोर्ड इस फ़्रेमवर्क का उपयोग करता है - रिव्यू में मौजूद कंटेंट से जुड़े व्यक्तिगत फ़ैसले के लिए और यह जानने के लिए कि कंटेंट गवर्नेंस के प्रति Meta के व्यापक नज़रिए के बारे में यह क्या कहता है. जैसा कि अभिव्यक्ति की आज़ादी के बारे में संयुक्त राष्ट्र के खास रैपर्टर में कहा गया है कि भले ही “कंपनियों का सरकारों के प्रति दायित्व नहीं है, लेकिन उनका प्रभाव इस तरह का है जो उनके लिए अपने यूज़र की सुरक्षा के बारे में इस तरह के सवालों का मूल्यांकन करना ज़रूरी बनाता है” (A/74/486, पैरा. 41).

I. वैधानिकता (नियमों की स्पष्टता और सुलभता)

वैधानिकता के सिद्धांत के अनुसार यह ज़रूरी है कि अभिव्यक्ति को सीमित करने वाले नियम, उन्हें एन्फ़ोर्स करने वाले लोगों और उनसे प्रभावित होने वाले लोगों के लिए एक्सेस करने लायक और स्पष्ट हों (सामान्य टिप्पणी सं. 34, पैरा. 25). अभिव्यक्ति को प्रतिबंधित करने वाले नियम “उन लोगों को अभिव्यक्ति की आज़ादी को प्रतिबंधित करने के निरंकुश अधिकार नहीं दे सकते जिन पर इन्हें लागू करने की ज़िम्मेदारी है” और नियमों में "उन लोगों के लिए पर्याप्त मार्गदर्शन भी होना ज़रूरी है जिन पर इन्हें लागू करने की ज़िम्मेदारी है ताकि वे यह पता लगा सकें कि किस तरह की अभिव्यक्ति को उचित रूप से प्रतिबंधित किया गया है और किसे नहीं" ( पूर्वोक्त). ऑनलाइन अभिव्यक्ति की निगरानी करने वाले नियमों के मामले में, अभिव्यक्ति की आज़ादी पर संयुक्त राष्ट्र के ख़ास रैपर्टर में कहा गया है कि उन्हें स्पष्ट और विशिष्ट होना चाहिए (A/HRC/38/35, पैरा. 46). Meta के प्लेटफ़ॉर्म का उपयोग करने वाले लोगों के लिए ये नियम एक्सेस करने और समझने लायक होने चाहिए और उनके एन्फ़ोर्समेंट के संबंध में कंटेंट रिव्यूअर्स को स्पष्ट मार्गदर्शन दिया जाना चाहिए.

बोर्ड ने पाया कि, जैसा कि इस केस के तथ्यों पर लागू हुआ, बहुत गंभीर हिंसा करने और उसे करने के आह्वान के कथनों पर Meta का प्रतिबंध स्पष्ट रूप से बताया गया था. बोर्ड का मानना है कि पॉलिसी और उसके उद्देश्य, जैसा कि उन्हें इस केस में लागू किया गया, वैधानिकता की शर्तें पूरी करने के लिए पर्याप्त स्पष्ट हैं.

हालाँकि, बोर्ड ने यह नोट किया कि हिंसा और उकसावे से जुड़ी पॉलिसी के तहत “जागरूकता फैलाने या निंदा करने” की छूट, पॉलिसी की लोगों को दिखाई देने वाली भाषा में अभी भी उपलब्ध नहीं है. कम्युनिटी स्टैंडर्ड की लोगों को दिखाई देने वाली भाषा में इन अपवादों को शामिल न कर पाना और यह स्पष्ट न कर पाना कि इरादा स्पष्ट करने की ज़िम्मेदारी यूज़र की है, वैधानिकता से जुड़ी गंभीर चिंताएँ उत्पन्न करता है (ऊपर सेक्शन 8.1 (1)(a) देखें). रूसी कविता केस में, बोर्ड ने सुझाव दिया कि Meta को अपने हिंसा और उकसावे के कम्युनिटी स्टैंडर्ड के लोगों को दिखाई देने वाली भाषा में यह जोड़ना चाहिए कि पॉलिसी की उसकी व्याख्या में “किसी कार्रवाई के संभावित परिणाम के तटस्थ रेफ़रेंस या परामर्शी चेतावनी” वाले कंटेंट और “हिंसक धमकियों की निंदा करने या उनके खिलाफ़ जागरूकता फैलाने” वाले कंटेंट की परमिशन है. Meta यह बदलाव करने के लिए प्रतिबद्ध है, लेकिन उसने हिंसा और उकसावे से जुड़े कम्युनिटी स्टैंडर्ड को उसके अनुसार अपडेट नहीं किया है. बोर्ड ने फिर से यह सुझाव हाइलाइट किया है और Meta से निवेदन किया है कि वह कम्युनिटी स्टैंडर्ड की लोगों को दिखाई देने वाली भाषा में यह अपवाद जोड़े.

II.वैधानिक लक्ष्य

ICCPR के अनुच्छेद 19, पैरा. 3 के तहत, कारणों की एक परिभाषित और सीमित लिस्ट के अनुसार अभिव्यक्ति को प्रतिबंधित किया जा सकता है. इस केस में, बोर्ड ने पाया कि बहुत गंभीर हिंसा करने के इरादे के कथनों और आह्वानों पर हिंसा और उकसावे से जुड़े कम्युनिटी स्टैंडर्ड द्वारा लगाया गया प्रतिबंध, लोक व्यवस्था की रक्षा करने और दूसरे लोगों के अधिकारों का सम्मान करने के वैधानिक लक्ष्य की पूर्ति करता है.

III. आवश्यकता और आनुपातिकता

आवश्यकता और आनुपातिकता के सिद्धांत के अनुसार यह ज़रूरी है कि अभिव्यक्ति की आज़ादी से संबंधित प्रतिबंध "रक्षा करने के उनके कार्य को सही तरीके से पूरा करने वाले होने चाहिए; उनसे उन लोगों के अधिकारों में कम से कम हस्तक्षेप होना चाहिए, जिन्हें उन प्रतिबंधों से होने वाले रक्षात्मक कार्यों का लाभ मिल सकता है [और] जिन हितों की सुरक्षा की जानी है, उसके अनुसार ही सही अनुपात में प्रतिबंध लगाए जाने चाहिए" (सामान्य टिप्पणी सं. 34, पैरा. 34). जब लोगों की सुरक्षा एक मुद्दा थी, तब हिंसा और उकसावे से जुड़े कम्युनिटी स्टैंटर्ड के तहत कंटेंट को हटाने की आवश्यकता और आनुपातिकता का विश्लेषण करने के लिए बोर्ड ने पहले रबात प्लान के कारकों का उपयोग किया है (ब्राज़ील के जनरल का भाषण और कंबोडियाई प्रधानमंत्री देखें). इस केस में, इस कंटेंट को हटाने की आवश्यकता और आनुपातिकता का मूल्यांकन करने के लिए बोर्ड ने रबात कारकों पर विचार किया. बोर्ड ने इस बात पर भी विचार किया कि इस कंटेंट का रिव्यू करने में Meta को इतनी देर क्यों लगी और हैती में कंटेंट को मॉडरेट करने में कंपनी की मानवाधिकार से जुड़ी ज़िम्मेदारियाँ पूरी करने की उसकी क्षमता के संदर्भ में इससे क्या पता चलता है.

बोर्ड के अधिकांश सदस्यों ने माना कि कंटेंट को पोस्ट किए जाने के लगभग तीन हफ़्ते बाद हटाने की कोई ज़रूरत नहीं थी. बोर्ड के अधिकांश सदस्यों ने हैती के संदर्भ, पोस्ट के दायरे और पहुँच और कंटेंट को पोस्ट करने और हटाने के बीच हुई देरी की वजह से नुकसान की आशंका पर विचार किया. पोस्ट से कितना जोखिम हो सकता है, यह उसे शेयर किए जाने के संदर्भ पर निर्भर होता है. वह संदर्भ तब बदल गया जब Meta कार्रवाई करने में विफल रहा और इसके परिणामस्वरूप वीडियो को रिव्यू के समय तक 200,000 बार देखा जा चुका था. बोर्ड के इन सदस्यों का मानना है कि Meta द्वारा रिव्यू किए जाने में हुई देरी और वीडियो को पहले ही बड़ी संख्या में देख लिए जाने के कारण, कंटेंट से होने वाले जोखिम का असर पहले ही लोगों तक पहुँच चुका था. अगर Meta इस पोस्ट का आकलन समय से कर लेता, तो आवश्यकता और आनुपातिकता विश्लेषण पर उसका असर पड़ता और उसे हटा दिया जाता, जैसा कि भारत के ओडिशा राज्य में सांप्रदायिक दंगे केस में हुआ, जिसमें कंटेंट को पोस्ट किए जाने के कुछ ही दिनों के भीतर उसे हटा दिया गया. Meta द्वारा एन्फ़ोर्समेंट में हुई देरी को देखते हुए, अधिकांश सदस्यों का मानना है कि तब कंटेंट को हटाने की कोई ज़रूरत नहीं थी.

इसके अलावा, व्यापक रूप से फैली हुई हिंसा और सरकारी तंत्र और लोक व्यवस्था के विफल रहने पर, जानकारी शेयर करना और भी महत्वपूर्ण हो जाता है ताकि कम्युनिटी उन्हें प्रभावित करने वाली महत्वपूर्ण घटनाओं पर अपनी प्रतिक्रिया व्यक्त कर सके. बोर्ड ने जिन विशेषज्ञों से बात की, उन्होंने यह तथ्य हाइलाइट किया कि संभावित जोखिमों की जानकारी पाते रहने के लिए हैती के लोग WhatsApp पर शेयर की गई जानकारी पर निर्भर रहते हैं. किसी ऐसे संदर्भ में जहाँ “पत्रकारों के काम में धमकियों और हिंसा द्वारा रुकावट डाली जाती है, जहाँ पत्रकारों पर बार-बार हमले किए जाते हैं और जहाँ दोषियों को दंड देना सामान्य बात है”, वहाँ सोशल मीडिया पर जानकारी की एक्सेस की रक्षा करना और भी महत्वपूर्ण है. अगर यह सुनिश्चित किया जाता है कि घटनाओं को डॉक्यूमेंट करने वाले कंटेंट को अनावश्यक रूप से हटाया न जाए, तो उससे लोगों तक सूचना पहुँचाने की कोशिशों में मदद मिल सकती है और उन लोगों को पहचाना जा सकता है और ज़िम्मेदार ठहराया जा सकता है जो हैती में हिंसा कर रहे हैं और भड़का रहे हैं.

COVID-19 के क्लेम किए गए बचाव केस में बोर्ड ने इस बात पर ज़ोर दिया था कि Meta उन सभी विकल्पों की जानकारी दे जो अपने विधिसम्मत लक्ष्यों को प्राप्त करने के लिए उसके पास मौजूद हैं (जैसे नुकसान को रोकना) और यह बताए कि चुना गया तरीका किस तरह सबसे कम बाधक है. जैसा कि उस केस में नोट किया गया था, Meta को अपने सबसे कम बाधक तरीके के चुनाव में लोगों को तीन बातों की जानकारी देनी चाहिए: (1) सार्वजनिक हित के उद्देश्य का निराकरण ऐसे उपायों के ज़रिए नहीं किया जा सकता, जिनसे आवाज़ उठाने में बाधा नहीं डाली जाती है; (2) भाषा के उल्लंघन से संबंधित उपायों के बीच, Facebook (sic) ने सबसे कम बाधक उपाय का चुनाव किया है; और (3) चुना गया उपाय वास्तव में लक्ष्य को प्राप्त करने में मदद करता है और वह निष्प्रभावी या अनुत्पादक नहीं है (A/74/486, पैरा. 51-52).

इस केस में, हैती के लोगों की मदद करने के लिए स्थिति का आकलन करने की अंतरराष्ट्रीय कम्युनिटी की दिलचस्पी को देखते हुए (जैसा ऊपर बताया गया है), Meta को सार्वजनिक रूप से यह बताना चाहिए कि जिओ-ब्लॉकिंग जैसे उपाय नुकसान को रोकने के लिए नाकाफ़ी रहेंगे. यह देखते हुए कि Meta द्वारा कंटेंट का रिव्यू किए जाने से पहले लगभग तीन हफ़्ते निकल चुके थे, कंपनी को यह भी स्पष्ट करना चाहिए कि कंटेंट से होने वाले एंगेजमेंट को रोकने या उसे डिमोट करने से उस समय नुकसान के जोखिम को कम करने के लिए पर्याप्त परिणाम क्यों नहीं मिलते. इसके बजाय Meta, बोर्ड से यह कहता दिखाई दिया कि वह आवश्यकता और आनुपातिकता का आकलन, टूल की अपनी पूरी रेंज के असर पर विचार करने के बजाय सिर्फ़ बाइनरी अप/डाउन बॉक्स में करे. जबकि टूल की पूरी रेंज के असर पर विचार करना, कंटेंट मॉडरेशन के प्रति मानवाधिकार के गंभीर दृष्टिकोण के लिए ज़रूरी है.

बोर्ड के कुछ सदस्यों के अनुसार, इस कंटेंट को हटाना आवश्यक और आनुपातिक था, ख़ास तौर पर हैती के संदर्भ, पोस्ट के दायरे और पहुँच और नुकसान की आशंका को देखते हुए. बोर्ड ने पाया कि इस वीडियो को बढ़े हुए जोखिम की समयावधि में पोस्ट किया गया था, जब गैंग हिंसा बढ़ रही थी और “आत्मरक्षा” या गैंग के संदिग्ध सदस्यों के खिलाफ़ “सतर्कता दल” की हिंसा की शुरुआत हो रही थी. इस मूवमेंट में पहले गैंग के संदिग्ध सदस्यों को पुलिस कस्टडी से निकालकर उन्हें पत्थर मारकर, पीटकर और आग में डालकर मार दिया गया है. संयुक्त राष्ट्र के मानवाधिकार उच्चायुक्त के अनुसार, 24 अप्रैल और मध्य अगस्त के बीच “350 से ज़्यादा लोगों को स्थानीय लोगों और सतर्कता समूहों द्वारा मार दिया गया. इनमें से 310 लोग गैंग के कथित सदस्य थे, 46 आम लोग थे और एक पुलिस अधिकारी था.” ऐसी घटनाओं के वीडियो को सोशल मीडिया पर फैलाया गया है और इन्हें देखकर अन्य लोग भी हथियार उठाकर इस मूवमेंट में शामिल हुए हैं और उन्होंने गैंग के संदिग्ध सदस्यों को मारने के लिए उन्हें ढूँढा है. इसके अलावा, संयुक्त राष्ट्र मानवाधिकार उच्चायुक्त की रिपोर्ट के अनुसार, स्थानीय सरकार और पुलिस बलों के ऐसे अधिकारी जो इन स्थानीय आत्मरक्षा समूहों के प्रति सहानुभूति रखने वाले माने जाते थे, उन्हें बदले की कार्रवाई में इन गैंग द्वारा मार दिया गया. साथ ही उन लोगों को भी मार दिया गया जो मूवमेंट में शामिल माने जाते थे. “5 सेकंड्स गैंग” का लीडर पहले सोशल मीडिया पर हत्या सहित बदले की धमकी दे चुका है. पोस्ट में जगह का नाम बताया गया है और उस व्यक्ति का चेहरा दिखाया गया है जो कारागार तोड़कर उसमें घुसने की कोशिश कर रहा है. साथ ही भीड़ में मौजूद कई लोगों के चेहरे भी दिखाए गए हैं. इस पोस्ट को 500,000 से ज़्यादा बार देखा गया था. इन तथ्यों को देखते हुए, Facebook पर फैल रहते इस वीडियो से हिंसा का जोखिम प्रत्यक्ष और तात्कालिक था (सामान्य कमेंट 34, पैरा 35), ख़ास तौर से न सिर्फ़ इस वीडियो के प्रकाशन के तुरंत बाद, बल्कि तब भी जब Meta ने उसका रिव्यू किया. इसके अलावा, बोर्ड के कुछ सदस्यों के अनुसार, वीडियो को हटाने से कम कोई भी उपाय उसमें दिखाए गए लोगों और उन लोगों की सुरक्षा के लिए पर्याप्त नहीं होता जिन्हें इस वीडियो के फैलने के बाद हिंसा का जोखिम था.

बोर्ड, Meta की इस काबिलियत को लेकर चिंतित है कि क्या वह हैती में कंटेंट के प्रभावी रूप से पहचान पाता है और उसे मॉडरेट कर पाता है. बोर्ड ने नोट किया कि कंटेंट का बढ़ा हुआ जोखिम, उस समय नुकसान में सीधा योगदान देता है जब लोक व्यवस्था और सरकारी सेवाएँ अनुपस्थित हों और जब अदालतों के बाहर और विकेंद्रीकृत हत्याएँ, ताकत और नियंत्रण की लड़ाई में मुख्य हथियार बन जाएँ.

इस केस में, कंटेंट का मूल्यांकन करने और उसे हटाने में Meta की ओर से बहुत देरी हुई. ऐसा लगता है कि यह देरी, हैती में कंटेंट को मॉडरेट करने के लिए पर्याप्त रिसोर्स में निवेश करने में कंपनी की विफलता का नतीजा है. बोर्ड पहले यह चिंता जता चुका है कि गैर-अंग्रेज़ी भाषाओं में कंटेंट को मॉडरेट करने के लिए कंपनी का निवेश पर्याप्त नहीं है (उदाहरण के लिए न्यूज़ रिपोर्टिंग में तालिबान का उल्लेख, अल जज़ीरा की शेयर की गई पोस्ट और ओजलान का एकांतवास केस देखें). इस केस में, Meta एक भरोसेमंद पार्टनर की रिपोर्ट का समय से आकलन नहीं कर पाया. ये रिपोर्ट, हैती में संभावित रूप से उल्लंघन करने वाले कंटेंट की पहचान के लिए एक ऐसा मुख्य टूल है जिस पर Meta भरोसा करता है. प्रोग्राम का मूल्यांकन करने वाले Meta के एक भरोसेमंद पार्टनर की हालिया रिपोर्ट में Meta से जवाब मिलने में लगने वाले औसत समय में भारी अनियमितताएँ बताई गईं और उसमें यह निष्कर्ष निकाला गया कि प्रोग्राम में रिसोर्स की कमी है. भरोसेमंद पार्टनर, Meta को उसके प्लेटफ़ॉर्म पर मौजूद संभावित रूप से खतरनाक कंटेंट के बारे में अलर्ट करने के लिए अपना समय और रिसोर्स लगाते हैं. बोर्ड इस बात से चिंतित है कि Meta, इन रिपोर्ट का समय से मूल्यांकन करने के लिए अपनी आंतरिक टीमों को पर्याप्त संख्या में रिसोर्स उपलब्ध नहीं करा रहा है.

आखिर में, Meta हैती में अपना संकट पॉलिसी प्रोटोकॉल एक्टिवेट करने में नाकाम रहा. पूर्व राष्ट्रपति ट्रंप का सस्पेंशन केस में बोर्ड ने कहा था कि Meta, संकट की और ऐसी अनोखी परिस्थितियों पर अपनी प्रतिक्रिया को नियंत्रित करने के लिए एक पॉलिसी बनाकर उसे प्रकाशित करे जहाँ उसकी सामान्य प्रोसेस के ज़रिए तात्कालिक नुकसान को रोकना या उससे बचना मुश्किल होगा. इसके जवाब में Meta ने संकट पॉलिसी प्रोटोकॉल बनाया जिसका लक्ष्य “कंपनी के पॉलिसी विशिष्ट जवाबों को व्यवस्थित करना है जिससे यह सुनिश्चित हो सके कि संकट की स्थिति में [Meta] समय से, व्यवस्थित रूप से और आनुपातिक रूप से काम करे” ( संकट पॉलिसी प्रोटोकॉल, पॉलिसी फ़ोरम मिनट, 25 जनवरी, 2022). इस केस में, Meta ने बोर्ड से कहा कि कंपनी ने अपने प्रोटोकॉल में हैती की स्थिति को संकट के रूप में चिह्नित नहीं किया क्योंकि उसे “अनोखे और आपातकालीन संकटों का समय से मूल्यांकन करना और उनके असर को कम से कम करना आसान बनाने के लिए डिज़ाइन किया गया है” और जब अगस्त 2022 में संकट पॉलिसी प्रोटोकॉल उपयोग में आया, तब हैती में कंपनी के जोखिम कम करने के उपाय पहले से लागू थे. हालाँकि, बोर्ड इस बात से चिंतित है कि अगर कंपनी ऐसी स्थितियों में संकट पॉलिसी प्रोटोकॉल का उपयोग नहीं कर पाती है, तो वह इन परिस्थितियों में सैद्धांतिक और सामयिक मॉडरेशन डिलीवर करने में विफल रहेगी. पूरी दुनिया में कई संकट और संघर्ष चल रहे हैं या उनमें परिस्थितियों के आधार पर गंभीर हिंसा या नुकसान की समयावधियाँ आती-जाती रहती हैं. Meta के पास ऐसा मैकेनिज़्म होना चाहिए जिससे वह ऐसे संकटों के दौरान जोखिम का आकलन कर सके और माइग्रेशन के मौजूदा उपायों से हटकर संकट पॉलिसी प्रोटोकॉल द्वारा बताए उपायों का उपयोग कर सके. ऐसी परिस्थितियों में संकट पॉलिसी प्रोटोकॉल का उपयोग न कर पाना, अपने लक्ष्यों की पूर्ति करने में प्रोटोकॉल की प्रभावशीलता का आकलन करने की कंपनी और लोगों की क्षमता को कमज़ोर करता है.

बोर्ड यह समझता है कि जब बात Meta के विभिन्न कंटेंट मॉडरेशन सिस्टमों के लिए रिसोर्स की प्राथमिकता तय करने की हो, तब उसे कठिन फ़ैसले लेने चाहिए (अर्थात, भाषा-विशिष्ट क्लासिफ़ायर बनाना, कंटेंट मॉडरेटर्स भर्ती करना, संकट पॉलिसी प्रोटोकॉल लागू करना या भरोसेमंद पार्टनर जैसे संचालन संबंधी उपायों को प्राथमिकता देना). हालाँकि, मानवाधिकारों से जुड़ी अपनी ज़िम्मेदारियों की पूर्ति के लिए, Meta को यह सुनिश्चित करना चाहिए कि हैती में बढ़े हुए जोखिम के इस समय में कंटेंट का मॉडरेशन प्रभावी और समय से हो.

9: ओवरसाइट बोर्ड का फ़ैसला

ओवरसाइट बोर्ड ने कंटेंट हटाने के Meta के फ़ैसले को पलट दिया है और पोस्ट को रीस्टोर करने के लिए कहा है.

10: सुझाव

एन्फ़ोर्समेंट

1.नुकसान के जोखिम से निपटने के लिए, ख़ास तौर पर, जहाँ Meta के पास कंटेंट की पहचान और आकलन के लिए प्रोएक्टिव मॉडरेशन टूल, प्रोसेस या साधन नहीं हैं या सीमित हैं, वहाँ Meta को भरोसेमंद पार्टनर के ज़रिए एस्केलेट किए गए कंटेंट पर अपनी प्रतिक्रिया की सामयिकता और प्रभावशीलता का मूल्यांकन करना चाहिए.

बोर्ड इस सुझाव को तब लागू मानेगा जब Meta इस आकलन के परिणाम बोर्ड से शेयर करेगा – भरोसेमंद पार्टनर द्वारा किए गए एस्केलेशन के लिए अंतिम समाधान तक पहुँचने में लगे औसत समय के देश के अनुसार विवरण, अंतिम समाधान तक पहुँचने में लगने वाले समय के लिए Meta के अपने आंतरिक लक्ष्य और अगर किसी मामले में वे टार्गेट पूरे नहीं हो रहे हैं, तो उठाए जाने वाले सुधारात्मक कदमों सहित – और साथ ही जब वह इस सुझाव का अनुपालन दर्शाने के लिए अपने निष्कर्षों का लोगों को दिखाई देने वाला सारांश प्रकाशित करेगा.

पॉलिसी

बोर्ड ने रूसी कविता केस का अपना नीचे बताया गया सुझाव भी दोहराया:

Meta को हिंसा और उकसावे से जुड़े अपने कम्युनिटी स्टैंडर्ड की लोगों को दिखाई देने वाली भाषा में यह जोड़ना चाहिए कि कंपनी के अनुसार पॉलिसी में “किसी कार्रवाई के संभावित परिणाम के निष्पक्ष रेफ़रेंस या परामर्शी चेतावनी” वाले कंटेंट और “हिंसक धमकी की निंदा करने या उनके खिलाफ़ जागरूकता फैलाने” वाले कंटेंट की परमिशन है.

*प्रक्रिया संबंधी नोट:

ओवरसाइट बोर्ड के फ़ैसले पाँच मेंबर्स के पैनल द्वारा लिए जाते हैं और उन्हें बोर्ड के बहुमत के आधार पर स्वीकृति दी जाती है. ज़रूरी नहीं है कि बोर्ड के फ़ैसले, सभी सदस्यों की निजी राय दर्शाएँ.

इस केस के फ़ैसले के लिए, बोर्ड की ओर से स्वतंत्र रिसर्च करवाई गई थी. बोर्ड की सहायता एक स्वतंत्र शोध संस्थान ने की जिसका मुख्यालय गोथेनबर्ग यूनिवर्सिटी में है और जिसके पास छह महाद्वीपों के 50 से भी ज़्यादा समाजशास्त्रियों की टीम के साथ ही दुनियाभर के देशों के 3,200 से भी ज़्यादा विशेषज्ञ हैं. बोर्ड को Duco Advisers की सहायता भी मिली, जो भौगोलिक-राजनैतिक, विश्वास और सुरक्षा और टेक्नोलॉजी के आपसी संबंध पर काम करने वाली एक एडवाइज़री फ़र्म है. Memetica ने भी विश्लेषण उपलब्ध कराया जो सोशल मीडिया ट्रेंड पर ओपन-सोर्स रिसर्च में एंगेज होने वाला संगठन है. Lionbridge Technologies, LLC कंपनी ने भाषा संबंधी विशेषज्ञता की सेवा दी, जिसके विशेषज्ञ 350 से भी ज़्यादा भाषाओं में कुशल हैं और वे दुनियाभर के 5,000 शहरों से काम करते हैं.

मामले के निर्णयों और नीति सलाहकार राय पर लौटें