पलट जाना
इज़राइल से बंधकों का अपहरण
बोर्ड ने Facebook से कंटेंट को हटाने के Meta के मूल फ़ैसले को पलट दिया. उसने पाया कि “परेशान करने वाले के रूप में चिह्नित” चेतावनी स्क्रीन के साथ कंटेंट को प्लेटफ़ॉर्म पर रीस्टोर करना, Meta की कंटेंट पॉलिसी, वैल्यू और मानवाधिकार से जुड़ी ज़िम्मेदारियों के अनुसार है.
इस फ़ैसले के प्रकाशन के बाद के कुछ हफ़्तों में, हम यहाँ हिब्रू भाषा का अनुवाद अपलोड करेंगे और अरबी भाषा का अनुवाद ‘भाषा’ टैब के ज़रिए उपलब्ध होगा जिसे इस स्क्रीन में सबसे ऊपर मौजूद मेनू से एक्सेस किया जा सकता है.
לקריאת החלטה זו בעברית יש ללחוץ כאן.
1. सारांश
केस में 7 अक्टूबर को हमास के नेतृत्व में इज़राइल पर किए गए आतंकवादी हमले का एक भावनात्मक वीडियो है. वीडियो में हमास के लोग एक महिला को बंधक बनाकर कहीं ले जा रहे हैं और महिला उन अपहरणकर्ताओं से उसे न मारने के लिए गिड़गिड़ा रही है. साथ दिए गए कैप्शन में लोगों से कहा गया है कि वे यह जानने के लिए इस वीडियो को देखें कि 7 अक्टूबर, 2023 को इज़राइल की सुबह किस आतंक के साथ हुई थी. Meta के ऑटोमेटेड सिस्टमों ने खतरनाक संगठनों और लोगों से जुड़े अपने कम्युनिटी स्टैंडर्ड का उल्लंघन करने के कारण पोस्ट को हटा दिया. यूज़र ने ओवरसाइट बोर्ड कोे फ़ैसले के खिलाफ़ अपील की. बोर्ड द्वारा रिव्यू के लिए इस केस को चुने जाने के बाद, Meta ने बोर्ड को बताया कि कंपनी ने बाद में अपनी उस पॉलिसी लाइन के अपवाद का उपयोग किया जिसके तहत कंटेंट को हटाया गया था और कंंटेंट को चेतावनी स्क्रीन के साथ रीस्टोर कर दिया. बोर्ड ने Meta के मूल फ़ैसले को पलट दिया और चेतावनी स्क्रीन के साथ कंटेंट को रीस्टोर करने के फ़ैसले को स्वीकार किया, लेकिन कंटेंट के इससे संबंधित डिमोशन को अस्वीकार किया जिसके कारण कंटेंट को सुझावों में नहीं दिखाया जा रहा था. अल-शिफ़ा अस्पताल ( 2023-049-IG-UA) केस के साथ यह केस, ऐसे पहले केस हैं जिनका फ़ैसला बोर्ड की त्वरित रिव्यू प्रक्रियाओं के तहत किया गया है.
2. केस का संदर्भ और Meta का जवाब
7 अक्टूबर, 2023 को हमास, जो Meta के खतरनाक संगठनों और लोगों से जुड़े कम्युनिटी स्टैंडर्ड में टियर 1 के तहत चिह्नित संगठन है, के नेतृत्व में गाज़ा से इज़राइल पर आतंकी हमले किए गए जिनमें 1200 लोग मारे गए और लगभग 240 लोगों को बंधक बना लिया गया ( विदेश मंत्रालय, इज़राइल सरकार). हमलों के जवाब में इज़राइल ने तुरंत गाज़ा में सैन्य कार्रवाई की. इज़राइल की सैन्य कार्रवाई में मध्य दिसंबर 2023 तक गाज़ा में 18000 से ज़्यादा लोग मारे जा चुके हैं (मानवतावादी मामलों के समन्यवय के लिए संयुक्त राष्ट्र कार्यालय, जो गाज़ा के स्वास्थ्य मंत्रालय से डेटा प्राप्त कर रहा है). इस संघर्ष में दोनों पक्ष एक-दूसरे पर अंतरराष्ट्रीय कानून के उल्लंघन का आरोप लगा रहे हैं. आतंकी हमले और उसके बाद इज़राइल की सैन्य कार्रवाइयाँ, पूरी दुनिया में प्रचार, चर्चा, छानबीन और बहस का विषय रही हैं जो अधिकांश रूप से Instagram और Facebook सहित सोशल मीडिया पर हुई हैं.
Meta ने अपनी खतरनाक संगठनों और लोगों से जुड़ी अपनी पॉलिसी के तहत 7 अक्टूबर की घटना को तुरंत एक आतंकी हमले के रूप में चिह्नित किया है. अपने कम्युनिटी स्टैंडर्ड के तहत, इसका मतलब है कि Meta ऐसे सभी कंटेंट को अपने प्लेटफ़ॉर्म से हटा देगा जिसमें 7 अक्टूबर की घटना या दोषियों की “प्रशंसा, मौलिक समर्थन या प्रतिनिधित्व” किया जाता है. वह ऐसे कंटेंट को भी हटा देगा जिसे हमलों के बारे में अपराधियों द्वारा जेनरेट किया गया हो और जो थर्ड पार्टी की ऐसी इमेजरी हो जिसमें पीड़ितों पर ऐसे हमलों के पल को दिखाया गया हो.
आतंकी हमलों और सैन्य जवाब के बाद अपने प्लेटफ़ॉर्म पर भारी मात्रा में पोस्ट किए जा रहे हिंसक और आपत्तिजनक कंटेंट के जवाब में, Meta ने कई अस्थायी उपाय किए हैं जिनमें कंटेंट को पहचानने और हटाने के लिए नफ़रत फैलाने वाली भाषा, हिंसा और उकसावे और धमकी और उत्पीड़न से जुड़ी अपनी पॉलिसी के ऑटोमैटिक क्लासिफ़िकेशन सिस्टम (क्लासिफ़ायर) के लिए कॉन्फ़िडेंस थ्रेशोल्ड कम करना शामिल है. Meta ने बोर्ड को बताया कि ये उपाय इज़राइल और गाज़ा से आने वाले किसी भी भाषा के कंटेंट के लिए किए गए हैं. इन क्लासिफ़ायर में किए गए बदलावों के कारण, उन कंटेंट को हटाए जाने की संख्या बढ़ी है जहाँ Meta की पॉलिसी का उल्लंघन करने वाले कंटेंट के लिए कॉन्फ़िडेंस का स्कोर कम था. दूसरे शब्दों में, Meta ने ऐसे कंटेंट को हटाने के लिए अपने ऑटोमेटेड टूल्स का ज़्यादा कठोरता से उपयोग किया जो प्रतिबंधित हो सकता है. Meta ने 7 अक्टूबर के पहले के उच्च कॉन्फ़िडेंस थ्रेशोल्ड की तुलना में ज़्यादा कंटेंट हटाकर सुरक्षा की अपनी वैल्यू को प्राथमिकता देने के लिए ऐसा किया. इससे यह संभावना कम हुई कि Meta ऐसे कंटेंट को हटाने में विफल होगा जो पहचाने जाने से अन्यथा बच जाएगा या जहाँ ह्यूमन रिव्यू की क्षमता सीमित होगी, लेकिन इससे यह संभावना भी बढ़ गई कि Meta इस संघर्ष के संबंध में उल्लंघन न करने वाले कंटेंट को भी हटा देगा.
जब एस्केलेशन वाली टीमों ने अपने आकलन में कंटेंट को उसकी हिंसक और आपत्तिजनक कंटेंट, हिंसा और उकसावे और खतरनाक संगठन और लोगों से जुड़ी पॉलिसी का उल्लंघन करने वाला पाया, वहाँ Meta ने मैच करने वाले वीडियो को अपने आप हटाने के लिए मीडिया मैचिंग सेवा पर भरोसा किया. इस तरीके से एन्फ़ोर्समेंट के ज़रूरत से ज़्यादा उपयोग की चिंता सामने आई, जहाँ Meta की कंटेंट पॉलिसी के बार-बार उल्लंघन के कारण लोगों के अकाउंट पर प्रतिबंध लगा दिए गए या उन्हें सस्पेंड कर दिया गया (इसे कभी-कभी “Facebook जेल” भी कहा जाता है). इस चिंता को कम करने के लिए, Meta ने “ स्ट्राइक” लगाना बंद कर दिया जो मीडिया मैचिंग सर्विस बैंक के आधार पर किए जाने वाले ऑटोमैटिक निष्कासन के साथ सामान्य तौर पर लगाई जाती है (जैसी कि Meta ने अपनी न्यूज़रूम पोस्ट में घोषणा की है).
क्लासिफ़ायर कॉन्फ़िडेंस थ्रेशोल्ड और स्ट्रइक पॉलिसी में Meta द्वारा किया गया बदलाव, सिर्फ़ इज़राइल-गाज़ा संघर्ष तक सीमित है और कुछ समय के लिए किया गया है. 11 दिसंबर, 2023 तक Meta ने अपने कॉन्फ़िडेंस थ्रेशोल्ड को 7 अक्टूबर के पहले के लेवल पर रीस्टोर नहीं किया था.
3. केस का विवरण
इस केस में 7 अक्टूबर के हमले का एक वीडियो है जिसमें एक महिला को अपहरणकर्ता बंधक बनाकर मोटरसाइकिल पर बैठाकर ले जा रहे हैं और वह उनसे अपनी जान की भीख माँग रही है. महिला वाहन पर पीछे बैठी दिख रही है और गिड़गिड़ा रही है कि वे उसे ज़िंदा छोड़ दें. इसके बाद, उस वीडियो में एक पुरुष दिखाई देता है, जिसे देखकर लगता है कि उसे भी बंधक बना लिया गया है और अपहरणकर्ता उसे ज़बर्दस्ती कहीं ले जा रहे हैं. बंधकों और अपहरणकर्ताओं के चेहरे ढँके नहीं गए हैं और पहचाने जा सकते हैं. ओरिजनल फ़ुटेज को हमलों के तुरंत बाद की घटनाओं के दौरान व्यापक रूप से शेयर किया गया था. इस केस में शामिल वीडियो को यूज़र ने हमलों के लगभग एक हफ़्ते बाद पोस्ट किया था. वीडियो में शामिल टेक्स्ट में कहा गया है: “इज़राइल पर हमला हुआ है.” उसमें #FreeIsrael हैशटैग के साथ एक बंधक का नाम भी दिया गया है. वीडियो के साथ दिए गए कैप्शन में यूज़र ने कहा कि इज़राइल पर हमास के आतंकवादियों ने हमला किया है और लोगों से कहा गया है कि वे यह जानने के लिए इस वीडियो को देखें कि 7 अक्टूबर, 2023 को इज़राइल की सुबह किस आतंक के साथ हुई थी. इसे लिए जाने तक, वीडियो में अपहरण किए गए दोनों लोगों को छोड़ा नहीं गया था.
इस वीडियो की एक कॉपी को मीडिया मैचिंग बैंक में जोड़ा गया था. Meta ने शुरुआत में अपनी खतरनाक संगठन और लोग पॉलिसी का उल्लंघन करने के कारण इस केस में शामिल पोस्ट को हटा दिया. यह पॉलिसी ऐसी थर्ड पार्टी इमेजरी को प्रतिबंधित करती है जिसमें किसी भी स्थिति में पीड़ितों पर ऐसे हमलों के पल को दिखाया गया हो, भले ही उसे हमले की निंदा करने या उसके खिलाफ़ जागरूकता फैलाने के लिए शेयर किया गया हो. Meta ने उस पर स्ट्राइक नहीं लगाई. यूज़र ने फिर Meta के फ़ैसले के खिलाफ़ ओवरसाइट बोर्ड को अपील की.
7 अक्टूबर के आतंकवादी हमलों के तुरंत बाद की घटनाओं के संदर्भ में, Meta ने उन वीडियो पर अपनी पॉलिसी का कठोर एन्फ़ोर्समेंट किया जिनमें पीड़ितों पर हमलों के पल दिखाए गए थे. Meta ने बताया कि ऐसा बंधकों की गरिमा से जुड़ी चिंताओं के चलते और ऐसी घटनाओं का जश्न मनाने या हमास के कृत्यों का प्रमोशन रोकने के लिए किया गया. Meta ने इस केस में दिखाए गए वीडियो सहित, 7 अक्टूबर के हमले के पलों को दिखाने वाले वीडियो को मीडिया मैचिंग सर्विस बैंक में भी जोड़ा ताकि भविष्य में इस तरह के कंटेंट को अपने आप हटाया जा सके.
Meta ने बोर्ड से कहा कि उसने ऐसे कंटेंट पर खतरनाक संगठनों और लोगों से जुड़ी पॉलिसी का कथन लागू किया और रिव्यूअर्स को समेकित मार्गदर्शन जारी किया. 13 अक्टूबर को, कंपनी ने अपनी न्यूज़रूम पोस्ट में बताया कि उसने हिंसा और उकसावे की पॉलिसी का कुछ समय के लिए विस्तार किया है ताकि Meta को जानकारी मिलने पर ऐसे कंटेंट को हटाया जा सके जिसमें बंधकों को स्पष्ट रूप से पहचाना जा सकता हो, भले ही कंटेंट को उन कामों की निंदा करने या उनकी स्थिति के बारे में जागरूकता फैलाने के लिए शेयर किया गया हो. कंपनी ने बोर्ड को बताया कि इन पॉलिसी को Facebook और Instagram पर समान रूप से लागू किया जाता है, लेकिन बताया जाता है कि इसी तरह का कंटेंट Instagram पर व्यापक रूप से दिखाई दे रहा है. इससे पता चलता है कि यहाँ इस पॉलिसी का प्रभावी एन्फ़ोर्समेंट नहीं हुआ है.
हिंसा और उकसावे से जुड़े कम्युनिटी स्टैंडर्ड में सामान्य तौर पर सीमित संदर्भों में ऐसे कंटेंट को सामान्य तौर पर परमिशन दी जाती है जिसमें अपहरण और बंधक बनाया जाना दिखाया जाता है. ऐसी परमिशन में वे मामले शामिल हैं जिनमें कंटेंट को जानकारी देने, निंदा करने या जागरूकता फैलाने के लिए या परिवार द्वारा मदद माँगने के लिए शेयर किया जाता है. हालाँकि, Meta के अनुसार, जब वह किसी आतंकवादी हमले को अपनी खतरनाक संगठनों और लोगों से जुड़ी पॉलिसी के तहत चिह्नित करता है और उन हमलों में पीड़ितों को बंधक बनाया जाता दिखाई दे रहा हो, तब हमले के पलों के कंटेंट से संबंधित Meta के नियम, हिंसा और उकसावे से जुड़े कम्युनिटी स्टैंडर्ड से पहले प्रभावी होते हैं. ऐसे मामलों में, अपहरण के पलों के वीडियो को जानकारी देने, निंदा करने या जागरूकता फैलाने से जुड़ी छूट नहीं दी जाती और कंटेंट को हटा दिया जाता है.
हालाँकि, 7 अक्टूबर के बाद हुई घटनाओं में Meta ने यह ऑनलाइन ट्रेंड देखा कि लोग अलग-अलग कारणों से पहचाने जा सकने वाले बंधकों को बंधक बनाए जाने के समय के वीडियो शेयर कर रहे थे. पीड़ितों के परिवार उन घटनाओं की निंदा करने और जागरूकता फैलाने के लिए वीडियो शेयर कर रहे थे और इसी तरह इज़राइल की सरकार और मीडिया संगठन भी उन फ़ुटेज को उन सूचनाओं से निपटने के लिए शेयर कर रहे थे जिनमें कहा गया था कि 7 अक्टूबर की घटनाएँ हुई ही नहीं या बंधकों पर कोई अत्याचार नहीं किया गया.
इन डेवलपमेंट के जवाब में Meta ने 7 अक्टूबर की घटनाओं का अपना चिह्नांकन बनाए रखते हुए खतरनाक संगठनों और लोगों से जुड़ी अपनी पॉलिसी में एक छूट लागू की. संचालनात्मक सीमाओं के अधीन, अपहरण के पलों को दिखाने वाले कंटेंट को चेतावनी स्क्रीन के साथ तब परमिशन दी जाएगी जब उसे निंदा करने, जागरूकता फैलाने, न्यूज़ रिपोर्टिंग करने या बंधकों को छोड़ने का आह्वान करने के लिए शेयर किया जाएगा.
Meta ने बोर्ड से कहा कि इस छूट को धीरे-धीरे लागू किया जा रहा है और यह छूट सभी यूज़र तक एक साथ नहीं पहुँची. 20 अक्टूबर को या उसके आसपास, कंपनी ने उस कंटेंट को छूट देना शुरू किया जिसमें 7 अक्टूबर के हमलों के संबंध में बंधकों को ले जाते हुए दिखाया जा रहा था. शुरुआत में कंपनी ने ह्यूमन रिव्यू की अनिश्चित क्षमता सहित संचालनात्मक सीमाओं के चलते “अर्ली रिस्पॉन्स सेकंडरी रिव्यू” प्रोग्राम (जिसे सामान्य तौर पर “क्रॉस-चेक” के नाम से जाना जाता है) में शामिल अकाउंट से पोस्ट किए गए कंटेंट के साथ ऐसा किया. क्रॉस-चेक प्रोग्राम, कुछ विशिष्ट एंटिटी द्वारा पोस्ट किए गए ऐसे कंटेंट के अतिरिक्त ह्यूमन रिव्यू की गारंटी देता है जिसे संभावित रूप से उल्लंघन करने वाला पाया जाता है और जिसके लिए Meta की कंटेंट पॉलिसी के तहत एन्फ़ोर्समेंट ज़रूरी है. 16 नवंबर को, Meta ने पाया कि उसके पास लोगों को बंधक बनाए जाने के संबंध में सभी अकाउंट से पोस्ट किए गए कंटेंट को छूट देने की क्षमता है और उसने यह छूट लागू की, लेकिन उसे सिर्फ़ इस तारीख के बाद पोस्ट किए गए कंटेंट पर लागू किया गया. Meta ने बोर्ड को बताया और सार्वजनिक न्यूज़रूम में अपडेट किया कि उसके द्वारा अभी दी जा रही छूट सिर्फ़ उन्हीं वीडियो तक सीमित है जिनमें 7 अक्टूबर को इज़राइल में बंधकों के अपहरण के पलों को दिखाया गया है.
हालाँकि, बोर्ड द्वारा इस केस को रिव्यू के लिए चुने जाने के बाद, Meta ने अपने शुरुआती फ़ैसले को पलट दिया और कंटेंट को रीस्टोर करके उस पर "परेशान करने वाला कंटेंट" चेतावनी स्क्रीन लगा दी. इसके कारण कंटेंट को सिर्फ़ उन्हीं लोगों द्वारा देखा जा सकता है जिनकी उम्र 18 वर्ष से ज़्यादा है और कंपनी ने इसे अन्य Facebook यूज़र्स को दिखाई देने वाले सुझावों से हटा दिया.
4. त्वरित रिव्यू के लिए अधिकार-क्षेत्र
ओवरसाइट बोर्ड के उपनियमों में “असाधारण परिस्थितियों में त्वरित रिव्यू करने का प्रावधान है. असाधारण परिस्थितियों में ऐसी परिस्थितियाँ शामिल होती हैं, जिनमें किसी कंटेंट से असली दुनिया पर जल्दी ही कोई असर पड़ सकता है” और ये फ़ैसले Meta के लिए बाध्यकारी होते हैं (चार्टर, आर्टिकल 3, सेक्शन 7.2; उपनियम, आर्टिकल 2, सेक्शन 2.1.2). त्वरित प्रोसेस में गहन रिसर्च, बाहरी परामर्श या सार्वजनिक कमेंट के वे लेवल शामिल नहीं होते जो सामान्य समय में केसों के रिव्यू किए जाते समय पूरे किए जाते हैं. केस का फ़ैसला, बोर्ड को विचार-विमर्श के समय उपलब्ध जानकारी के आधार पर किया जाता है और बोर्ड के पूर्ण वोट के बिना पाँच सदस्यों के पैनल द्वारा किया जाता है.
ओवरसाइट बोर्ड ने इस केस और एक अन्य केस, अल-शिफ़ा अस्पताल (2023-049-IG-UA), का चयन किया क्योंकि संघर्ष की स्थितियों में अभिव्यक्ति की आज़ादी महत्वपूर्ण होती है और इज़राइल-हमास संघर्ष की स्थिति में इस पर संकट है. दोनों केस उन अपीलों के प्रतिनिधि हैं जिन्हें क्षेत्र के यूज़र्स 7 अक्टूबर के हमलों और उसके बाद इज़राइल की सैन्य कार्रवाई के सिलसिले में बोर्ड को सबमिट करते आ रहे हैं. दोनों केस बोर्ड की संकट और संघर्ष की स्थितियों से जुड़ी प्राथमिकता के तहत आते हैं. दोनों केसों में Meta के फ़ैसले, त्वरित रिव्यू के औचित्य के लिए “असली दुनिया पर पड़ने वाले अत्यावश्यक परिणामों” के स्टैंडर्ड को पूरा करते हैं और इसके अनुसार बोर्ड और Meta ने मिलकर बोर्ड की त्वरित प्रक्रिया के तहत आगे बढ़ना तय किया.
बोर्ड को अपने सबमिशन में, Meta ने यह माना कि “यह फ़ैसला करना कठिन है कि इस कंटेंट से कैसे व्यवहार किया जाए और इसमें आपस में प्रतिस्पर्धा करने वाली वैल्यू और दुविधाएँ शामिल हैं.” उसने बोर्ड से इस मुद्दे पर राय माँगी.
5. यूज़र सबमिशन
बोर्ड को की गई अपनी अपील में यूज़र ने कहा कि वीडियो में असली घटनाएँ कैद की गई हैं. उसका लक्ष्य 7 अक्टूबर को हुए हमले, जिसमें लोगों को बंधक बनाया गया, की बर्बरता दिखाते हुए “आतंकवाद को रोकना” है. यूज़र को यह सूचना दी गई थी कि बोर्ड उनकी अपील का रिव्यू कर रहा है.
6. फ़ैसला
बोर्ड ने Facebook से कंटेंट को हटाने के Meta के मूल फ़ैसले को पलट दिया. उसने पाया कि “परेशान करने वाले के रूप में चिह्नित” चेतावनी स्क्रीन के साथ कंटेंट को प्लेटफ़ॉर्म पर रीस्टोर करना, Meta की कंटेंट पॉलिसी, वैल्यू और मानवाधिकार से जुड़ी ज़िम्मेदारियों के अनुसार है. हालाँकि, बोर्ड इस नतीजे पर भी पहुँचा कि रीस्टोर किए गए कंटेंट को Meta द्वारा डिमोट करना, ताकि उसे सुझावों में दिखाए जाने की संभावना न हो, अभिव्यक्ति की आज़ादी का सम्मान करने की कंपनी की ज़िम्मेदारियों के अनुसार नहीं है.
6.1 Meta की कंटेंट पॉलिसी का अनुपालन
बोर्ड ने पाया कि कंटेंट को हटाने का Meta का शुरुआती फ़ैसला, उस समय खतरनाक संगठनों और लोगों से जुड़ी पॉलिसी के अनुसार था, जो “दिखाई दे रहे पीड़ितों पर चिह्नित हमलों के पल को दिखाने वाली थर्ड पार्टी इमेजरी” को प्रतिबंधित करती है. कंटेंट को चेतावनी स्क्रीन के साथ रीस्टोर करना भी ऐसे कंटेंट को परमिशन देने की Meta की अस्थायी छूट के अनुसार है, जिसे निंदा करने, जागरूकता फैलाने, न्यूज़ रिपोर्टिंग करने या बंधकों को छोड़ने का आह्वान करने के उद्देश्य से शेयर किया जाता है.
6.2 Meta की मानवाधिकारों से जुड़ी ज़िम्मेदारियों का अनुपालन
बोर्ड, पॉलिसी को लेकर 7 अक्टूबर की Meta की शुरुआती स्थिति से सहमत है जिसके अनुसार खतरनाक संगठन और लोगों से जुड़ी पॉलिसी के तहत “ऐसी थर्ड पार्टी इमेजरी को हटा दिया जाता है जिसमें स्पष्ट दिखाई दे रहे पीड़ितों पर चिह्नित हमलों के पलों को दिखाया गया हो.” बंधकों की गरिमा की रक्षा करना और यह सुनिश्चित करना कि वे लोगों की उत्सुकता का विषय न बनें, Meta का डिफ़ॉल्ट नज़रिया होना चाहिए. अपवाद वाली परिस्थितियों में, हालाँकि, व्यापक लोकहित या बंधकों के हित में होने पर, इस प्रतिबंध से कुछ समय के लिए और सीमित छूट दी जा सकती है. इस केस की कुछ ख़ास परिस्थितियों में, जैसा कि बोर्ड द्वारा केस चुने जाने के बाद Meta ने कंटेंट को रीस्टोर करते और चेतावनी स्क्रीन जोड़ते हुए माना, कंटेंट को छूट दी जानी चाहिए. बोर्ड ने पाया कि अपने शुरुआती नज़रिए -- निंदा करने, जागरूकता फैलाने, न्यूज़ रिपोर्टिंग करने या बंधकों को छोड़ने का आह्वान करने के उद्देश्य से शेयर करने पर चेतावनी स्क्रीन के साथ ऐसे कंटेंट को छूट देना -- को बदलने का Meta का फ़ैसला उचित था. इसके अलावा, 16 नवंबर के पहले यह बदलाव उचित था क्योंकि खतरनाक संगठनों और लोगों से जुड़ी पॉलिसी का Meta द्वारा कठोर एन्फ़ोर्समेंट, बंधकों और उनके परिवारों के अधिकारों और हितों को आगे बढ़ाने और उनकी रक्षा करने वाली अभिव्यक्ति में रुकावट डाल रहा था. तेज़ी से बदलती परिस्थितियों और इस तरह के कंटेंट को हटाने से अभिव्यक्ति की आज़ादी और जानकारी की एक्सेस पर पड़ने वाले बड़े असर को देखते हुए, Meta को इस पॉलिसी को और तेज़ी से स्वीकार करना चाहिए था.
जैसा कि बोर्ड ने आर्मेनिया के युद्धबंदियों का वीडियो केस में कहा, नागरिक और राजनीतिक अधिकार पर अंतरराष्ट्रीय प्रतिज्ञापत्र (ICCPR) के आर्टिकल 19 के तहत अभिव्यक्ति की आज़ादी के सुरक्षा उपाय, “सशस्त्र संघर्ष की स्थिति में भी लागू होते हैं और Meta को अपनी मानवाधिकार संबंधी ज़िम्मेदारियों में इनकी मदद लेते रहना चाहिए. ये सुरक्षा उपाय ऐसे संघर्षों के दौरान लागू होने वाले अंतरराष्ट्रीय मानवतावादी कानून के परस्पर सुदृढ़ बनाने वाले और पूरक नियमों के साथ लागू किए जाते हैं.” बिज़नेस और मानवाधिकारों के बारे में संयुक्त राष्ट्र के मार्गदर्शक सिद्धांत, किसी संघर्ष वाले माहौल में काम करने वाले बिज़नेस को ज़्यादा ज़िम्मेदार बनाते हैं (“बिज़नेस, मानवाधिकार और संघर्ष से प्रभावित क्षेत्र: बड़े स्तर की कार्रवाई की ओर,” A/75/212).
जहाँ राज्य, अभिव्यक्ति पर प्रतिबंध लगाता है, वहाँ प्रतिबंधों को वैधानिकता, वैधानिक लक्ष्य और आवश्यकता तथा आनुपातिकता की शर्तों को पूरा करना चाहिए (अनुच्छेद 19, पैरा. 3, ICCPR). इन आवश्यकताओं को अक्सर “तीन भागों वाला परीक्षण” कहा जाता है. Meta की स्वैच्छिक मानवाधिकार प्रतिबद्धताओं को समझने के लिए बोर्ड इस फ़्रेमवर्क का उपयोग करता है - रिव्यू में मौजूद कंटेंट से जुड़े व्यक्तिगत फ़ैसले के लिए और यह जानने के लिए कि कंटेंट गवर्नेंस के प्रति Meta के व्यापक नज़रिए के बारे में यह क्या कहता है. ऐेसा करते समय, बोर्ड इस बारे में संवेदनशील बने रहने की कोशिश करता है कि उन अधिकारों को प्राइवेट सोशल मीडिया कंपनी पर लागू करना उन्हें किसी सरकार पर लागू करने से किस तरह अलग हो सकता है. इसके बावजूद, जैसा कि अभिव्यक्ति की आज़ादी के बारे में संयुक्त राष्ट्र के खास रैपर्टर में कहा गया है कि भले ही कंपनियों का सरकारों के प्रति कोई दायित्व नहीं है, लेकिन “उनका प्रभाव इस तरह का है जो उनके लिए अभिव्यक्ति की आज़ादी के अपने यूज़र्स के अधिकार की रक्षा के बारे में इस तरह के सवालों का आकलन करना ज़रूरी बनाता है” (रिपोर्ट A/74/486, पैरा. 41).
वैधानिकता के अनुसार यह ज़रूरी है कि अभिव्यक्ति की आज़ादी का कोई भी प्रतिबंध एक्सेस योग्य होना चाहिए और उसे यह स्पष्ट मार्गदर्शन देना चाहिए कि किन बातों की परमिशन है और किनकी नहीं. जैसा कि इस केस में लागू किया गया, दिखाई दे रहे पीड़ितों पर चिह्नित आतंकवादी हमलों को दिखाने वाली थर्ड पार्टी इमेजरी, चाहे उसे किसी भी संदर्भ में शेयर किया गया हो, को प्रतिबंधित करने वाला Meta का खतरनाक संगठन और लोगों से जुड़ा नियम स्पष्ट है. इसके अलावा, Meta ने 13 अक्टूबर को न्यूज़रूम पोस्ट के ज़रिए सार्वजनिक रूप से अनाउंस किया कि वह इस तरह के सभी वीडियो को हटा देगा. हालाँकि Meta ने बाद में अपने तरीके में बदलाव किया -- पहले 20 अक्टूबर को जब उसने ERSR प्रोग्राम का फ़ायदा लेने वाली एंटिटी द्वारा शेयर किए गए कंटेंट को तब चेतावनी स्क्रीन के साथ छूट दी जब उसे जानकारी देने या जागरूकता फैलाने के उद्देश्य से शेयर किया गया हो और दूसरी बार 16 नवंबर को जब इस छूट को सभी यूज़र्स के लिए बढ़ाया गया -- कंपनी ने 5 दिसंबर तक सार्वजनिक रूप से इस बदलाव की घोषणा नहीं की थी. ऐसा बोर्ड द्वारा इस केस को चुने जाने के बाद किया गया लेकिन 7 दिसंबर को बोर्ड द्वारा इस केस को लेने की सार्वजनिक घोषणा करने से पहले किया गया. पूरे संघर्ष के दौरान, Meta द्वारा लागू किए गए नियमों में कई बार बदलाव हुआ लेकिन उन्हें यूज़र्स को पूरी तरह स्पष्ट नहीं किया गया. यह भी स्पष्ट नहीं कि किस पॉलिसी के तहत चेतावनी स्क्रीन लगाई जाती है, क्योंकि न तो खतरनाक संगठनों और लोगों से जुड़ी पॉलिसी और न ही हिंसा और उकसावे से जुड़ी पॉलिसी में चेतावनी स्क्रीन का उपयोग बताया गया है. बोर्ड ने Meta को प्रोत्साहित किया कि वह 7 अक्टूबर को इज़राइल से बंधक बनाए गए लोगों से जुड़े कंटेंट के संबंध में अपनी मौजूदा पॉलिसी के आधार और दायरे को सार्वजनिक रूप से स्पष्ट करते हुए और विचाराधीन अन्य सामान्य पॉलिसी से इसके संबंध को स्पष्ट करते हुए वैधानिकता से जुड़ी इन चिंताओं का समाधान करे.
ICCPR के अनुच्छेद 19, पैरा. 3 के तहत, कारणों की एक परिभाषित और सीमित लिस्ट के अनुसार अभिव्यक्ति को प्रतिबंधित किया जा सकता है. बोर्ड ने पहले पाया कि खतरनाक संगठनों और लोगों से जुड़ी पॉलिसी और हिंसा और उकसावे से जुड़ी पॉलिसी, अन्य लोगों के अधिकारों की रक्षा के वैधानिक लक्ष्य को पूरा करती है (टिग्रे कम्युनिकेशन अफ़ेयर्स ब्यूरो और न्यूज़ रिपोर्टिंग में तालिबान का उल्लेख देखें).
आवश्यकता और आनुपातिकता के सिद्धांत के अनुसार यह ज़रूरी है कि अभिव्यक्ति की आज़ादी से संबंधित प्रतिबंध "रक्षा करने के उनके कार्य को सही तरीके से पूरा करने वाले होने चाहिए; उनसे उन लोगों के अधिकारों में कम से कम हस्तक्षेप होना चाहिए, जिन्हें उन प्रतिबंधों से होने वाले रक्षात्मक कार्यों का लाभ मिल सकता है [और] जिन हितों की सुरक्षा की जानी है, उसके अनुसार ही सही अनुपात में प्रतिबंध लगाए जाने चाहिए" (सामान्य टिप्पणी सं. 34, पैरा. 34).
बोर्ड ने पाया कि बंधकों को दिखाने वाले सभी कंटेंट को हटाने का Meta का शुरुआती फ़ैसला, बंधकों की सुरक्षा और गरिमा की रक्षा करने के लक्ष्यों को हासिल करने के लिए आवश्यक और आनुपातिक था. साथ ही यह सुनिश्चित करने के लिए भी ऐसा करना ज़रूरी था कि Meta के प्लेटफ़ॉर्म का उपयोग 7 अक्टूबर की हिंसा को आगे बढ़ाने और बंधकों के साथ अपमानजनक और अमानवीय व्यवहार को बढ़ावा देने के लिए न किया जाए. बोर्ड ने अंतरराष्ट्रीय मानवतावादी कानून, संघर्ष के पहले हफ़्ते के डिजिटल संदर्भ और ऐसे सभी कंटेंट को हटाने के अपने फ़ैसले के असर को सीमित करने के लिए Meta द्वारा किए गए उपायों पर विचार किया.
अंतरराष्ट्रीय मानवतावादी कानून, अंतरराष्ट्रीय और गैर-अंतरराष्ट्रीय सशस्त्र संघर्षों के दौरान, सशस्त्र संघर्ष में बंधकों को विशेष खतरे की पहचान करता है और उन लोगों को सुरक्षा प्रदान करता है जिन्हें ज़्यादा खतरा है; जिनेवा समझौते के अनुसार बंधकों को साथ ले जाने की मनाही है ( सामान्य अनुच्छेद 3, जिनेवा समझौता; अनुच्छेद 27 और अनुच्छेद 34, जिनेवा समझौता IV). बंधक बनाने के खिलाफ़ अंतरराष्ट्रीय समझौते में दी गई परिभाषा के तहत बंधक वह परिस्थिति है जिसमें किसी व्यक्ति को कैद या कब्ज़े में रखा जाए और मारने, घायल करने या कैद में बनाए रखने की धमकी दी जाए ताकि किसी थर्ड पार्टी को बंधक को रिहा करने की स्पष्ट या अस्पष्ट शर्त के रूप में कोई काम करने या न करने के लिए बाध्य किया जा सके और ICRC की कमेंटरी के अनुसार इसका उपयोग जिनेवा समझौते के तहत शर्त को परिभाषित करने के लिए किया जाना चाहिए. सामान्य अनुच्छेद 3 के तहत “निजी गरिमा पर अत्याचार, ख़ास तौर पर अपमानजनक और अनुचित व्यवहार,” भी प्रतिबंधित है. जिनेवा समझौते IV का अनुच्छेद 27, बंधकों सहित सुरक्षित लोगों की अमानवीय और अपमानजनक व्यवहार से रक्षा भी करता है, जिसमें अपमान और सार्वजनिक उत्सुकता शामिल है. बंधकों के वीडियो शेयर करना, किसी सरकार और लोगों को धमकाने की रणनीति का एक अभिन्न भाग हो सकता है और इससे बंधकों की कैद और अपमान जारी रखने को बढ़ावा मिल सकता है. यह अंतरराष्ट्रीय कानून का निरंतर उल्लंघन है. ऐसी परिस्थितियों में, हिंसा, दुर्व्यवहार और निरंतर खतरे की फ़ोटो फैलाए जाने से हिंसक और अपमानजनक व्यवहार को और बढ़ावा मिल सकता है.
बंधकों के वीडियो 7 अक्टूबर के हमले के साथ ही सोशल मीडिया प्लेटफ़ॉर्म पर डाले जाने शुरू हो गए थे. रिपोर्ट के अनुसार, पहले पूरे हफ़्ते के दौरान ये वीडियो हमास और फ़िलिस्तीनी इस्लामिक जिहाद द्वारा प्रसारित किए गए थे और इससे ये गंभीर चिंताएँ पैदा हुई थीं कि वे हत्याओं या यातनाओं के लाइवस्ट्रीम और वीडियो भी शेयर कर सकते हैं. ऐसी परिस्थितियों में, अपने प्लेटफ़ॉर्म पर ऐसे सभी वीडियो को प्रतिबंधित करने का Meta का फ़ैसला उचित और अंतरराष्ट्रीय मानवतावादी कानून, उसके कम्युनिटी स्टैंडर्ड और सुरक्षा की उसकी वैल्यू के अनुरूप था. इंडस्ट्री स्टैंडर्ड, जैसे क्राइस्टचर्च कॉल में तय की गई प्रतिबद्धताएँ, के अनुसार कंपनियों को हिंसक चरमपंथी हमलों के बाद शेयर किए गए नुकसानदेह कंटेंट पर तुरंत और प्रभावी प्रतिक्रिया करने की ज़रूरत है. हालाँकि, क्राइस्टचर्च कॉल में ऐसे कंटेंट पर मानवाधिकार और बुनियादी आज़ादी के अनुसार प्रतिक्रिया देने पर भी ज़ोर दिया गया है.
इसी समय, Meta ने ऐसी सभी इमेजरी हटाने के इस फ़ैसले के बुरे प्रभाव को सीमित करने के लिए उन यूज़र पर कोई स्ट्राइक न लगाने का फ़ैसला किया जिनका कंटेंट इस पॉलिसी के तहत हटाया गया था. इससे उन यूज़र्स पर इस कठोर पॉलिसी के नुकसानदेह असर कम हुए जो शायद कंटेंट को निंदा करने या जागरूकता फैलाने और घटनाओं की रिपोर्ट करने जैसे उद्देश्यों के लिए कंटेंट पोस्ट कर रहे हैं. बोर्ड ने पाया कि बड़े पैमाने पर नियमों को स्पष्ट रूप से कठोरता से लागू करने के नकारात्मक परिणामों को कम करने के लिए स्ट्राइक को केलीब्रेट करने या उसका उपयोग न करने पर Meta द्वारा विचार किया जाना उचित और उपयोगी हो सकता है और इसलिए लक्ष्य को पूरा करने के लिए अभिव्यक्ति पर प्रतिबंध लगाना ज़्यादा आनुपातिक है.
जिनेवा समझौता, बंधकों सहित संरक्षित लोगों की जानकारी लोगों को देना प्रतिबंधित करता है ताकि उन्हें सार्वजनिक जिज्ञासा से बचाया जा सके क्योंकि इससे उन लोगों के साथ अपमानजनक व्यवहार होता है. इस प्रतिबंध से मामूली छूट दी गई हैं जिनका विश्लेषण बोर्ड ने आर्मेनिया के युद्धबंदियों का वीडियो फ़ैसले में किया. इसके तहत पहचाने जाने लायक बंदियों को दिखाने वाली सामग्री के “युद्ध संबंधी अपराधों पर मुकदमा चलाने के लिए साक्ष्य के रूप में उपयोग होने, उत्तरदायित्व को बढ़ावा देने और दुर्व्यवहार के बारे में लोगों में जागरूकता लाने के संबंध में अत्यधिक महत्व को देखते हुए ऐसी सामग्री को सार्वजनिक रूप से जाहिर करने के फ़ायदों और शेयर की गई सामग्री में दिखाए गए व्यक्तियों के संभावित अपमान और जान-माल के नुकसान के बीच उचित संतुलन रखना ज़रूरी है.” अपवादस्वरूप प्रकटन के लिए ज़रूरी है कि उसके पीछे कोई बाध्यकारी जनहित हो या वह बंधकों के महत्वपूर्ण हित में हो.
इन कारणों से, बंधकों या युद्धबंदियों को दिखाने वाले कंटेंट को कुछ समय के लिए छूट देने के किसी भी फ़ैसले का आकलन, उन बंधकों या युद्धबंदियों से जुड़े ख़ास तथ्यों और उनके अधिकारों और हितों के आधार पर किया जाना चाहिए, यह सुनिश्चित करने के लिए उनका लगातार रिव्यू किया जाना चाहिए कि उन्हें उन अधिकारों और हितों की ज़्यादा से ज़्यादा पूर्ति के हिसाब से बनाया जाए और वे संरक्षित लोगों के अधिकारों और गरिमा की रक्षा के लिए बनाए गए नियमों के सामान्य अपवाद न बनें. इस केस के तथ्यों से ऐसे मज़बूत सिग्नल मिले कि इस तरह का प्रकटन, बंधकों के महत्वपूर्ण हित में था. 7 अक्टूबर के बाद के पहले हफ़्ते में, बंधकों के परिवार भी संगठित होने शुरू हो गए और उन्होंने बंधकों को मुक्त करने के आह्वान के अपने कैंपेन के रूप में और बंधकों के सर्वश्रेष्ठ हित के लिए विभिन्न सरकारों पर दबाव बनाने के लिए वीडियो शेयर किए. इस केस में पोस्ट के भाग के रूप में उपयोग किया गया वीडियो भी दिखाई गई महिला के परिवार के कैंपेन का भाग था. इसके अलावा, लगभग 16 अक्टूबर से, इज़राइल की सरकार ने पत्रकारों को वीडियो का कंपाइलेशन दिखाना शुरू किया ताकि उन्हें 7 अक्टूबर के हमलों की गंभीरता बताई जा सके. 7 अक्टूबर के बाद ऐसे बयानों की रिपोर्ट फैल रही थीं जिनमें यातनाओं से इंकार किया गया था. इसे देखते हुए, Meta का यह निष्कर्ष निकालना उचित था कि कंपनी को बंधकों के परिवारों की आवाज़ को दबाना नहीं चाहिए और तथ्यों के जाँच करने और उन्हें रिपोर्ट करने के न्यूज़ संगठनों और अन्य एंटिटी के काम को हतोत्साहित नहीं करना चाहिए. परिवारों और अधिकारियों के लिए बंधकों की भावी सुरक्षा चाहना महत्वपूर्ण हो सकता है ताकि यह देखा जा सके कि बंधक जीवित है और उनकी शारीरिक स्थिति का पता लगाया जा सके और यहाँ तक कि अपहरणकर्ताओं का पता लगाया जा सके. यह ख़ास तौर पर महत्वपूर्ण है, जबकि Meta के पास ऐसे कंटेंट की रक्षा करने का पारदर्शी और प्रभावी तरीका उपलब्ध नहीं है (नीचे आगे की चर्चा देखें). संक्षेप में, 7 अक्टूबर की घटनाओं के बाद के हफ़्तों के डिजिटल माहौल में हुए बदलावों को देखते हुए, Meta द्वारा अपनी पॉलिसी में कुछ समय के लिए छूट लागू करना उचित था जो 7 अक्टूबर को इज़राइल से बंधक बनाए गए लोगों तक सीमित थी.
बोर्ड इस नतीजे पर भी पहुँचा कि सभी यूज़र्स के लिए इस अपवाद को लागू करने में Meta ने लंबा समय लिया. लोगों को इस अस्थायी बदलाव की जानकारी देने में भी Meta की रफ़्तार धीमी थी. 20 अक्टूबर को Meta ने ऐसे वीडियो को तब चेतावनी स्क्रीन के साथ दिखाना शुरू किया जब उन्हें जानकारी देने और जागरूकता फैलाने के उद्देश्य से शेयर किया गया हो. यह छूट सिर्फ़ उन एंटिटी को दी गई थी जो क्रॉस-चेक ERSR लिस्ट का भाग थीं. शुरुआती छूट देने के लगभग चार हफ़्ते बाद और संघर्ष शुरू होने के लगभग डेढ़ माह बाद, 16 नवंबर को Meta ने सभी यूज़र्स के लिए यह छूट लागू कर दी. 5 दिसंबर को Meta ने अंततः एक न्यूज़रूम आर्टिकल के ज़रिए घोषणा की कि उसने अपनी उस पॉलिसी में बदलाव किया है जिसके तहत हमले के पलों में बंधकों को दिखाने वाले वीडियो को प्रतिबंधित किया गया था. बोर्ड मानता है कि पॉलिसी में बदलावों को छोटे-छोटे भागों में लागू करना सैद्धांतिक रूप से उचित है, लेकिन बोर्ड मानता है कि कंपनी को बदलती परिस्थितियों के जल्दी प्रतिक्रिया करनी चाहिए थी.
Meta द्वारा अपने शुरुआती तरीके में बदलाव किए जाने और छूट दिए जाने के बाद भी Meta ने कंटेंट पर चेतावनी स्क्रीन लगाना जारी रखा. जैसा कि बोर्ड ने पुराने केसों में निष्कर्ष निकाला है, कुछ परिस्थितियों में चेतावनी स्क्रीन लगाना एक आनुपातिक उपाय हो सकता है, भले ही इससे कंटेंट की पहुँच पर बुरा असर पड़ता है, लेकिन इससे यूज़र्स को कंटेंट को शेयर करने और यह चुनने की सुविधा मिलती है कि परेशान करने वाले कंटेंट को देखना है या नहीं (आर्मेनिया के युद्धबंदियों का वीडियो देखें). बोर्ड ने पाया कि मानवाधिकारों के संभावित हनन, संघर्ष या आतंकवादी कृत्यों के बारे में जागरूकता फैलाने वाले कंटेंट को सुझावों में न दिखाना, ऐसे कंटेंट में लोगों की अत्यधिक दिलचस्पी को देखते हुए अभिव्यक्ति की आज़ादी पर आवश्यक या आनुपातिक प्रतिबंध नहीं है. चेतावनी स्क्रीन और सुझावों से हटाने की कार्रवाई के अलग-अलग उद्देश्य हैं और कुछ मामलों में उन्हें अलग-अलग रखा जाना चाहिए, ख़ास तौर पर संकट की स्थितियों में. कंटेंट को सुझाव देने वाले सिस्टमों से हटाने का मतलब है उस पहुँच को कम करना, जो इस कंटेंट को अन्यथा प्राप्त होती. बोर्ड ने पाया कि यह आचरण, अभिव्यक्ति की आज़ादी में अनुपातहीन रूप से रुकावट डालता है, यह देखते हुए कि कंटेंट की पहुँच पहले ही वयस्क यूज़र्स तक सीमित है और यह कि इसे हिंसक संघर्ष के घटनाक्रम जैसे लोगों की दिलचस्पी के मुद्दों के बारे में जागरूकता फैलाने, निंदा करने या रिपोर्ट करने के लिए पोस्ट किया गया है.
बोर्ड इस बात से भी चिंतित है कि संघर्ष के दौरान कंटेंट मॉडरेशन को लेकर Meta के नज़रिए में बार-बार बदलाव में पारदर्शिता की कमी बनी हुई है जिससे उसकी पॉलिसी और व्यवहारों का प्रभावी मूल्यांकन कमज़ोर होता है और इससे बाहर के लोगों को लगता है कि कंपनी मनमाने फ़ैसले ले रही है. जैसे कि Meta ने यह कन्फ़र्म किया कि जानकारी देने या जागरूकता फैलाने के उद्देश्यों से चिह्नित हमलों में पीड़ितों को दिखाने वाली इमेजरी शेयर करने की परमिशन देना एक अस्थायी उपाय है. हालाँकि, यह अस्पष्ट है कि क्या यह उपाय कंपनी के संकट पॉलिसी प्रोटोकॉल का भाग है या उसे Meta की टीमों द्वारा घटनाओं के साथ-साथ तैयार किया जाता है. Meta ने पूर्व राष्ट्रपति ट्रंप का सस्पेंशन केस में बोर्ड के सुझाव सं. 18 के जवाब में संकट पॉलिसी प्रोटोकॉल बनाया. कंपनी के अनुसार इसका उद्देश्य Meta को ऐसा फ़्रेमवर्क देना है जो सभी संकटों का अनुमान लगा सके और उनके जोखिमों पर एक समान प्रतिक्रिया कर सके. पारदर्शिता में कमी का अर्थ है कि न तो बोर्ड और न ही लोगों को इस बात की जानकारी है कि क्या इस केस में उपयोग किए गए पॉलिसी से जुड़े उपाय (अर्थात खतरनाक संगठन और लोगों से जुड़ी पॉलिसी की भाषा का उल्लंघन करने वाले कंटेंट को चेतावनी स्क्रीन के साथ निंदा करने और जागरूकता फैलाने के लिए परमिशन देना) को इस संघर्ष से पहले बनाया गया था और उसका मूल्यांकन किया गया था, पॉलिसी के इस अस्थायी उपाय का वास्तविक दायरा क्या है (अर्थात क्या यह 7 अक्टूबर के हमले के बाद कैद में मौजूद बंधकों के वीडियो पर लागू होता है), इसके उपयोग की शर्तें क्या हैं, किन परिस्थितियों में उपाय की ज़रूरत नहीं होगी और क्या अस्थायी उपाय की समाप्ति के बाद Meta का इरादा ऐसे सभी कंटेंट को हटाना जारी रखने का है. बोर्ड ने इस बात पर फिर से ज़ोर दिया कि संकट से निपटने के इन एड-हॉक उपायों के बारे में यूज़र्स और लोगों को समय से और प्रभावी नोटिफ़िकेशन देने में कमी है. बोर्ड ने पहले कहा है कि Meta को अपने कम्युनिटी स्टैंडर्ड के ऐसे अपवादों, “उनकी अवधि और उनकी समाप्ति के नोटिस की घोषणा करनी चाहिए, ताकि उसके प्लेटफ़ॉर्म का उपयोग करने वाले लोगों को पॉलिसी में कुछ ख़ास अभिव्यक्ति की छूट देने वाले बदलावों की सूचना मिल सके” (ईरान में विरोध प्रदर्शन का स्लोगन, सुझाव सं. 5 देखें, जिसे Meta ने आंशिक रूप से लागू किया). पारदर्शिता में कमी का उन यूज़र्स पर भी नकारात्मक असर हो सकता है जिन्हें यह डर होता है कि अगर वे कोई गलती करते हैं तो उनके कंटेंट को हटा दिया जाएगा और उनके अकाउंट पर दंड लगाया जाएगा या उसे प्रतिबंधित किया जाएगा. अंत में, बंधकों को दिखाने की परमिशन पर बेसलाइन सामान्य प्रतिबंध और उन अत्यंत सीमित अपवादस्वरूप परिस्थितियों को देखते हुए जिनमें इनसे छूट दी जा सकती है, छूट के सटीक दायरे और समय सीमाओं के संबंध में त्वरित और नियमित नोटिस और पारदर्शिता यह सुनिश्चित करने में उपयोगी होती है कि वे ज़्यादा से ज़्यादा सीमित रहें.
इसके अलावा, कंपनी ने पहले अपने क्रॉस-चेक प्रोग्राम का फ़ायदा लेने वाली एंटिटी को जानकारी देने या जागरूकता फैलाने के उद्देश्यों से चेतावनी स्क्रीन के साथ बंधकों के वीडियो शेयर करने की परमिशन दी और बाद में सभी यूज़र्स के लिए इस छूट का विस्तार किया. संदर्भ को देखते हुए, पॉलिसी में कुछ समय के लिए ज़्यादा छूट देने का मध्यवर्ती तरीका उचित दिखाई देता है जिससे बदलाव को व्यापक रूप से लागू करने से पहले कंपनी को कम यूज़र्स पर उसे टेस्ट करने की सुविधा मिलती है. हालाँकि, क्रॉस-चेक प्रोग्राम का उपयोग करके ऐसा करने से ऐसी कुछ समस्याएँ फिर से सामने आईं जिनकी पहचान बोर्ड ने इस विषय पर अपनी पॉलिसी एडवाइज़री टीम की राय में की थी. इनमें यूज़र्स से असमान व्यवहार करना, क्रॉस-चेक लिस्ट के लिए पारदर्शी शर्त की कमी, उन यूज़र्स का ज़्यादा प्रतिनिधित्व सुनिश्चित करने की ज़रूरत जिनका कंटेंट मानवाधिकारों के नज़रिए से महत्वपूर्ण हो सकता है, जैसे पत्रकार और नागरिक समाज संगठन और क्रॉस-चेक के काम करने के तरीके के बारे में समग्र पारदर्शिता की कमी शामिल है. इस तरीके से क्रॉस-चेक प्रोग्राम का उपयोग, प्रोग्राम के Meta द्वारा बताए गए उद्देश्य से भी विरोध करता है. इन उद्देश्यों के अनुसार यह गलतियों को रोकने का एक सिस्टम है, न कि ऐसा प्रोग्राम जो कुछ ख़ास विशेषाधिकार प्राप्त यूज़र्स को ज़्यादा परमिशन वाले नियम उपलब्ध कराता है. Meta ने बताया कि बोर्ड द्वारा पॉलिसी एडवाइज़री टीम की राय में दिए गए अधिकांश सुझावों पर उसका काम जारी है, लेकिन न तो बोर्ड और न ही लोगों के पास ऐसी पर्याप्त जानकारी है जिससे वे इस बात का मूल्यांकन कर सकें कि संघर्ष की स्थिति में क्रॉस-चेक लिस्ट पर निर्भरता, Meta की मानवाधिकार से जुड़ी ज़िम्मेदारियों के अनुरूप है या उनका अलग असर होने की संभावना है जिसमें स्पीकर्स के एक मार्केट या ग्रुप को दूसरे पर वरीयता दी जाएगी.
अंत में, यह Meta की ज़िम्मेदारी है कि वह मानवाधिकारों के संभावित उल्लंघनों और अंतरराष्ट्रीय मानवतावादी कानून के संभावित उल्लंघनों के सबूतों की रक्षा करे, जैसा कि BSR रिपोर्ट (सुझाव सं. 21) में भी सुझाव दिया गया है और नागरिक समाज समूहों द्वारा भी कहा गया है. Meta के प्लेटफ़ॉर्म से कंटेंट हटा दिए जाने पर भी, भावी जवाबदेही तय करने के संदर्भ में ऐसे सबूतों की रक्षा करना ज़रूरी है (सूडान का आपत्तिजनक वीडियो और आर्मेनिया के युद्धबंदियों का वीडियो देखें). Meta ने बताया कि वह ऐसे सभी कंटेंट को एक वर्ष तक अपने पास रखता है जो उसके कम्युनिटी स्टैंडर्ड का उल्लंघन करता है, लेकिन बोर्ड ने कहा कि संभावित युद्ध अपराधों, मानवता के विरुद्ध अपराधों और मानवाधिकार के गंभीर उल्लंघनों से ख़ास तौर पर संबंधित कंटेंट को दीर्घकालिक जवाबदेही के उद्देश्यों के लिए पहचाना और ज़्यादा टिकाऊ और एक्सेस लायक तरीके से संरक्षित किया जाना चाहिए. बोर्ड ने नोट किया कि Meta ने आर्मेनिया के युद्धबंदियों का वीडियो केस में सुझाव सं. 1 को लागू करने की सहमति दी है. इसमें Meta से कहा गया है कि वह अत्याचार से जुड़े अपराधों या मानवाधिकार के गंभीर उल्लंघनों की जाँच और उनका निदान करने या उनके संबंध में मुकदमा चलाने में मदद करने वाली जानकारी के संरक्षण के लिए प्रोटोकॉल बनाए और जहाँ उपयुक्त हो वहाँ सक्षम प्राधिकारियों से शेयर करे. Meta ने बोर्ड से कहा कि वह “क्रूरता के अपराधों और अंतरराष्ट्रीय मानवाधिकार कानून के गंभीर उल्लंघनों के संभावित सबूतों को अपने पास रखने के एकरूप तरीके” के निर्माण के अंतिम चरण में है और उसे आशा है कि वह बोर्ड को इस तरीके के बारे में जल्दी ही जानकारी उपलब्ध कराएगा. बोर्ड यह आशा करता है कि Meta उपरोक्त सुझाव को पूरी तरह लागू करेगा.
*प्रक्रिया संबंधी नोट:
ओवरसाइट बोर्ड के त्वरित फ़ैसले पाँच सदस्यों की पैनल द्वारा तैयार किए जाते हैं और उन पर बोर्ड के बहुसंख्यक सदस्यों की स्वीकृति ज़रूरी नहीं है. ज़रूरी नहीं है कि बोर्ड के फ़ैसले, सभी सदस्यों की निजी राय दर्शाएँ.