ओवरसाइट बोर्ड ने इज़राइल-हमास विवाद के बारे में शुरुआती त्वरित फ़ैसले जारी किए
19 दिसम्बर 2023
आज, ओवरसाइट बोर्ड ने इज़राइल-हमास के विवाद के बारे में दो केस में अपने शुरुआती त्वरित फ़ैसले प्रकाशित किए. 7 दिसंबर को अनाउंस किए गए, इन केस पर 12 दिनों की त्वरित टाइमलाइन में फ़ैसला लिया गया था. बोर्ड को त्वरित फ़ैसले 30 दिनों के भीतर देने होते हैं.
ओवरसाइट बोर्ड ने विवाद के मामलों में स्वतंत्र अभिव्यक्ति के महत्व के कारण ये केस चुने. दोनों केस उन अपीलों के प्रतिनिधि हैं जिन्हें क्षेत्र के यूज़र्स 7 अक्टूबर के हमलों के सिलसिले में बोर्ड को सबमिट करते आ रहे हैं. एक केस Facebook पर पोस्ट किए गए उस वीडियो से जुड़ा है, जिसमें एक इज़राइली महिला अपने अपहरणकर्ताओं से अपनी जान की भीख माँग रही है. उसे 7 अक्टूबर को इज़राइल पर हुए आतंकवादी हमलों के दौरान बंधक बनाया गया था. दूसरे केस में Instagram पर पोस्ट किया गया एक वीडियो शामिल है. इस वीडियो में गाज़ा पट्टी के उत्तर में अल-शिफ़ा अस्पताल पर या उसके पास इज़राइल के ज़मीनी हमलों के बाद की घटनाएँ दिखाई देती हैं. यह पोस्ट मृत या घायल फ़िलिस्तीनी लोग दिखाए गए हैं, जिनमें बच्चे शामिल हैं.
दोनों केस में, बोर्ड ने Meta के प्लेटफ़ॉर्म से कंटेंट को हटाने के उसके मूल फ़ैसले को पलट दिया, लेकिन पोस्ट को चेतावनी स्क्रीन के साथ रीस्टोर करने के कंपनी के अगले फ़ैसले को स्वीकृति दे दी.
आप बोर्ड के पूरे फ़ैसलों को यहाँ पढ़ सकते हैं.
मुख्य निष्कर्ष
बोर्ड के फ़ैसलों में स्वतंत्र अभिव्यक्ति पर असर डालने वाले संकट के दौरान Meta की परफ़ॉर्मेंस के कई पहलुओं पर चर्चा की गई.
7 अक्टूबर के हमलों के बाद अपने प्लेटफ़ॉर्म पर भारी मात्रा में पोस्ट किए जा रहे हिंसक और आपत्तिजनक कंटेंट के जवाब में, Meta ने हिंसक और आपत्तिजनक कंटेंट, नफ़रत फैलाने वाली भाषा, हिंसा और उकसावे और धमकी और उत्पीड़न से जुड़ी अपनी पॉलिसी का उल्लंघन करने वाले कंटेंट को पहचानने और हटाने वाले ऑटोमैटिक क्लासिफ़िकेशन सिस्टम (क्लासिफ़ायर) के लिए कॉन्फ़िडेंस थ्रेशोल्ड को अस्थायी तौर पर कम कर दिया है. ये उपाय इज़राइल और गाज़ा से आने वाले किसी भी भाषा के कंटेंट के लिए किए गए हैं.
इसका मतलब है कि Meta ने ऐसे कंटेंट को हटाने के लिए अपने ऑटोमेटेड टूल्स का ज़्यादा कठोरता से उपयोग किया जो उसकी पॉलिसी का उल्लंघन कर सकता था. इससे यह संभावना कम हुई कि Meta ऐसे कंटेंट को हटाने में विफल होगा जो पहचाने जाने से अन्यथा बच जाएगा या जहाँ ह्यूमन रिव्यू की क्षमता सीमित होगी, लेकिन इससे यह संभावना भी बढ़ गई कि Meta इस संघर्ष के संबंध में उल्लंघन न करने वाले कंटेंट को भी हटा देगा.
अल-शिफ़ा अस्पताल के केस से यह भी पता चलता है कि किसी संकट पर प्रतिक्रिया देने के दौरान अगर ऑटोमेटेड मॉडरेशन की पर्याप्त मानवीय निगरानी नहीं की जाती है, तो उसके परिणास्वरूप ऐसी अभिव्यक्ति को गलत ढंग से निकाला जा सकता है जो अत्यंत जनहित की हो सकती है. इस कंटेंट को हटाने का शुरुआती फ़ैसला और यूज़र की अपील को अस्वीकार करना, दोनों घटनाएँ एक क्लासिफ़ायर स्कोर के आधार पर अपने आप हुई थीं और उसमें ह्यूमन रिव्यू शामिल नहीं था. 7 अक्टूबर के हमलों के बाद हिंसक और आपत्तिजनक कंटेंट से जुड़ी पॉलिसी के तहत कंटेंट को हटाने के थ्रेशोल्ड को कम करने की Meta की संकटकालीन प्रतिक्रिया से यह स्थिति शायद अप्रत्यक्ष रूप से और बिगड़ी है.
बोर्ड द्वारा रिव्यू किए गए इन दोनों केस में, Meta ने उस कंटेंट को नीचे कर दिया, जिन पर उसने चेतावनी स्क्रीन लगाई थीं और दूसरे Facebook और Instagram यूज़र को उस कंटेंट का सुझाव देना भी बंद कर दिया, फिर चाहे कंपनी ने यह पाया हो कि पोस्ट का उद्देश्य जागरूकता लाना था.
इज़राइल से अगवा किए गए बंधकों के केस में पॉलिसी को लेकर 7 अक्टूबर की Meta की शुरुआती स्थिति खतरनाक संगठन और लोगों से जुड़ी पॉलिसी के तहत “ऐसी थर्ड पार्टी इमेजरी को हटा दिया जाना था, जिसमें स्पष्ट दिखाई दे रहे पीड़ितों पर [चिह्नित] हमलों के पलों को दिखाया गया हो”. बोर्ड इस शुरुआती स्थिति और इस बात से सहमत है कि बंधकों की सुरक्षा और इज़्ज़त बनाए रखना Meta की डिफ़ॉल्ट पहुँच होनी चाहिए. हालाँकि, बोर्ड ने पाया कि निंदा करने, जागरूकता फैलाने, न्यूज़ रिपोर्टिंग करने या बंधकों को छोड़ने का आह्वान करने के उद्देश्य से शेयर करने पर चेतावनी स्क्रीन के साथ ऐसे कंटेंट को छूट देने का Meta का बाद में लिया गया फ़ैसला उचित था. वाकई, तेज़ी से बदलती परिस्थितियों और इस तरह के कंटेंट को हटाने के लिए स्वतंत्रअभिव्यक्ति और जानकारी की एक्सेस पर पड़ने वाले बड़े असर को देखते हुए, Meta को अपनी पॉलिसी को और तेज़ी से स्वीकार करना चाहिए था.
Meta ने कन्फ़र्म किया है कि उसने 7 अक्टूबर के हमलों में बनाए गए बंधकों से जुड़े कंटेंट की 20 अक्टूबर को या उसके आस-पास परमिशन देना शुरू कर दिया था, लेकिन उसने शुरुआत में ऐसा बस कंपनी की क्रॉस-चेक लिस्ट में मौजूद अकाउंट से पोस्ट किए गए कंटेंट के लिए ही किया. 16 नंवबर तक सभी अकाउंट से पोस्ट किए गए कंटेंट के लिए परमिशन देना शुरू नहीं किया गया और बस इस तिथि के बाद पोस्ट किए गए कंटेंट की के लिए परमिशन दी जा रही थी.
इससे क्रॉस-चेक को लेकर बोर्ड की पिछली चिंताएँ हाइलाइट होती हैं, जिसमें Meta की क्रॉस-चेक लिस्ट में यूज़र्स के साथ असमान व्यवहार, उसमें शामिल करने के लिए पारदर्शी मानदंड की कमी और उसमें ऐसे यूज़र्स को ज़्यादा अच्छे से दिखाना पक्का करने की ज़रूरत शामिल हैं, जिनका कंटेंट मानवाधिकारों के दृष्टिकोण से महत्वपूर्ण होने की संभावना होती है. इस तरीके से क्रॉस-चेक प्रोग्राम का उपयोग, प्रोग्राम के Meta द्वारा बताए गए उद्देश्य से भी विरोध करता है. इन उद्देश्यों के अनुसार यह गलतियों को रोकने का एक सिस्टम है, न कि ऐसा प्रोग्राम जो कुछ ख़ास विशेषाधिकार प्राप्त यूज़र्स को ज़्यादा परमिशन वाले नियम उपलब्ध कराता है.
आखिर में, मानवाधिकारों के संभावित उल्लंघनों और अंतरराष्ट्रीय मानवीय कानून के उल्लंघनों के सबूतों की रक्षा करना Meta की ज़िम्मेदारी है. Meta के प्लेटफ़ॉर्म से कंटेंट हटा दिए जाने पर भी, भावी जवाबदेही तय करने के संदर्भ में ऐसे सबूतों की रक्षा करना ज़रूरी है. Meta ने बताया कि वह ऐसे सभी कंटेंट को एक वर्ष तक अपने पास रखता है जो उसके कम्युनिटी स्टैंडर्ड का उल्लंघन करता है, लेकिन बोर्ड ने कहा कि संभावित युद्ध अपराधों, मानवता के विरुद्ध अपराधों और मानवाधिकार के गंभीर उल्लंघनों से ख़ास तौर पर संबंधित कंटेंट को दीर्घकालिक जवाबदेही के उद्देश्यों के लिए पहचाना और ज़्यादा टिकाऊ और एक्सेस लायक तरीके से संरक्षित किया जाना चाहिए.
इसके अलावा, बोर्ड ने नीचे दी गई कंटेंट मॉडरेशन संबंधी गाइडेंस पर कार्रवाई करने की तात्कालिक ज़रूरत को बार-बार दोहराया:
- इस साल की शुरुआत में, Meta ने कंटेंट को सुरक्षित रखने का प्रोटोकॉल विकसित करने का वचन दिया था, जिससे गंभीर अपराधों या मानवाधिकारों के उल्लंघनों की जाँच में मदद मिल सकती है. हालाँकि, Meta ने रिपोर्ट की कि वह इस प्रोटोकॉल को विकसित करने अंतिम चरणों में है, लेकिन फिर भी कंपनी को मौजूदा विवाद के दौरान इस क्षेत्र में अपनी पहुँच का तेज़ी से प्रदर्शन करना चाहिए ( आर्मेनियाई युद्ध बंदियों के वीडियो वाले केसमें सबसे पहला सुझाव).
- अगर मीडिया मैचिंग सर्विस बैंक के अंतर्गत पहचाने गए कंटेंट पर बार-बार और सफलतापूर्वक अपील की जाती है, तो उस कंटेंट की इस बार में फिर से जाँच की जानी चाहिए कि वह उल्लंघन करने वाला कंटेंट है या नहीं ( कोलंबिया पुलिस कार्टून वाले केसमें सबसे पहला सुझाव).
- यूज़र्स के कंटेंट के विरुद्ध एन्फ़ोर्समेंट एक्शन लेने के लिए ऑटोमेशन का उपयोग किए जाने पर बोर्ड ने Meta को यूज़र्स को इसकी जानकारी देने की सलाह दी. Meta ने रपोर्ट की कि उसने इस सुझाव को दुनिया भर में लागू कर दिया है, लेकिन कंपनी को अभी भी बोर्ड को इसे लागू किए जाने का सबूत देने की ज़रूरत है ( स्तन कैंसर के लक्षण और नग्नता वाले केसमें तीसरे नंबर पर दिया गया सुझाव).
नोट: ओवरसाइट बोर्ड एक निष्पक्ष संगठन है, जो चुनिंदा प्रतीकात्मक मामलों में Facebook और Instagram पर कंटेंट को बनाए रखने या उसे हटाने से जुड़े Meta के फ़ैसलों की जाँच करता है. बोर्ड कंपनी के फ़ैसलों का रिव्यू करता है और ज़रूरी होने पर उन्हें पलट भी देता है. बोर्ड के फ़ैसले Meta के लिए बाध्यकारी होते हैं.