पलट जाना
महिलाओं पर तालिबान का अत्याचार दिखाने वाला कार्टून
एक यूज़र ने एक ऐसी Facebook पोस्ट को हटाने के Meta के फ़ैसले के खिलाफ़ अपील की जिसमें अफ़गानी महिलाओं पर तालिबान शासन के अत्याचार को दिखाने वाला राजनैतिक कार्टून था. यह केस कंपनी की खतरनाक संगठनों और लोगों से जुड़ी पॉलिसी के Meta द्वारा एन्फ़ोर्समेंट में होने वाली गलतियाँ हाइलाइट करता है.
यह संक्षिप्त फ़ैसला है. संक्षिप्त फ़ैसलों में उन केसों का परीक्षण किया जाता है जिनमें बोर्ड द्वारा कंटेंट पर Meta का ध्यान आकर्षित के बाद कंपनी ने कंटेंट के बारे में अपने मूल फ़ैसले को पलटा है. इन फ़ैसलों में उन गलतियों की जानकारी होती है जिन्हें Meta ने स्वीकार किया है और इनमें लोगों को यह जानकारी दी जाती है कि बोर्ड के काम का क्या असर पड़ता है. उन्हें बोर्ड के सदस्यों की पैनल द्वारा स्वीकार किया गया है, न कि पूरे बोर्ड द्वारा. उनमें सार्वजनिक कमेंट पर विचार नहीं किया जाता और बोर्ड आगे के फ़ैसलों के लिए उन्हें आधार भी नहीं बनाता है. संक्षिप्त फ़ैसले, Meta के सुधारों के बारे में पारदर्शिता देते हैं और यह बताते हैं कि पॉलिसी के एन्फ़ोर्समेंट के संबंध में कंपनी कहाँ सुधार कर सकती है.
केस का सारांश
एक यूज़र ने एक ऐसी Facebook पोस्ट को हटाने के Meta के फ़ैसले के खिलाफ़ अपील की जिसमें अफ़गानी महिलाओं पर तालिबान शासन के अत्याचार को दिखाने वाला राजनैतिक कार्टून था. यह केस Meta की खतरनाक संगठनों और लोगों से जुड़ी पॉलिसी के कंपनी द्वारा एन्फ़ोर्समेंट में होने वाली गलतियाँ हाइलाइट करता है, खास तौर पर व्यंग्य के रूप में की गई राजनैतिक बातचीत के संबंध में. जब बोर्ड ने Meta का ध्यान अपील पर आकर्षित किया, तो कंपनी ने अपना मूल फ़ैसला पलट दिया और पोस्ट को रीस्टोर कर दिया.
केस की जानकारी और बैकग्राउंड
अगस्त 2023 में, Facebook के एक यूज़र, जो नीदरलैंड्स का एक प्रोफ़ेशनल कार्टूनिस्ट है, ने एक कार्टून पोस्ट किया जिसमें तालिबान के तीन पुरुष एक कार क्रशर पर बैठे हैं और क्रशर के नीचे महिलाओं का एक समूह है. बैकग्राउंड में, "oppress-o-meter" (अत्याचार का मीटर) लेबल वाला एक मीटर है जो कंट्रोल पैनल से जुड़ा है और उनमें से एक पुरुष एक बटन दबा रहा है जिसके कारण क्रशर नीचे जा रहा है. इस फ़ोटो के साथ दिए कैप्शन में कहा गया है: "2 years of Taliban rule (तालिबानी शासन के दो साल). #Afghanistan #Taliban #women #oppression." पोस्ट को Meta की खतरनाक संगठनों और लोगों से जुड़ी पॉलिसी के उल्लंघन के कारण हटा दिया गया था. इस पॉलिसी के तहत ऐसे समूहों और लोगों का निरूपण और उनके बारे में कुछ खास तरह के कथन प्रतिबंधित हैं, जिनके कारण कंपनी के अनुसार असली जीवन में लोगों को गंभीर नुकसान हो सकता है.
बोर्ड को की गई अपनी अपील में, यूज़र ने कहा कि कंटेंट एक राजनैतिक कार्टून और उसमें व्यंग्य किया गया है. कार्टून दिखाता है कि तालिबान के शासन में अफ़गानिस्तान में महिलाओं पर अत्याचार जारी हैं और उनकी स्थिति बुरी होती जा रही है. खतरनाक संगठनों और लोगों से जुड़ी Meta की पॉलिसी में उस कंटेंट की परमिशन दी गई है जो खतरनाक संगठनों या लोगों या गतिविधियों की रिपोर्ट करता है, उनकी निंदा करता है या उनकी निष्पक्ष रूप से चर्चा करता है.
बोर्ड द्वारा इस केस को Meta के ध्यान में लाए जाने के बाद, कंपनी ने पाया कि कंटेंट से खतरनाक संगठनों और लोगों से जुड़ी पॉलिसी का उल्लंघन नहीं हुआ और यह कि उसे हटाना गलत था. कंपनी ने फिर कंटेंट को Facebook पर रीस्टोर कर दिया.
बोर्ड का प्राधिकार और दायरा
बोर्ड को उस यूज़र के अपील करने के बाद Meta के फ़ैसले का रिव्यू करने का अधिकार है, जिसका कंटेंट हटा दिया गया था (चार्टर अनुच्छेद 2, सेक्शन 1; उपनियम अनुच्छेद 3, सेक्शन 1).
जहाँ बोर्ड द्वारा रिव्यू किए जा रहे केस में Meta यह स्वीकार करता है कि उससे गलती हुई है और वह अपना फ़ैसला पलट देता है, वहाँ बोर्ड उस केस का चुनाव संक्षिप्त फ़ैसले के लिए कर सकता है (उपनियम अनुच्छेद 2, सेक्शन 2.1.3). बोर्ड, कंटेंट मॉडरेशन प्रोसेस के बारे में ज़्यादा जानकारी पाने, गलतियों में कमी लाने और Facebook और Instagram के यूज़र्स के लिए निष्पक्षता बढ़ाने के लिए मूल फ़ैसले का रिव्यू करता है.
केस का महत्व
यह केस Meta की एन्फ़ोर्समेंट प्रक्रियाओं की कमियाँ हाइलाइट करता है, खास तौर पर चिह्नित संगठनों और लोगों से जुड़ी फ़ोटो का पता लगाते और उन्हें समझते समय. अगर इस पॉलिसी का ज़रूरत से ज़्यादा एन्फ़ोर्समेंट किया जाता है, तो विधिसम्मत राजनैतिक बातचीत से जुड़ी कलात्मक अभिव्यक्ति भी हट जाएगी, जैसा कि इस केस में हुआ.
2022 में, बोर्ड ने यह भी सुझाव दिया था कि “सिस्टम की जिन समस्याओं के कारण एन्फ़ोर्समेंट में गलतियाँ हो रही हैं, उनका पता लगाने के लिए Meta को खतरनाक संगठनों और लोगों से जुड़ी पॉलिसी के तहत रिपोर्टिंग की छूट देने वाले [ह्यूमन] रिव्यूअर्स की सटीकता का आकलन करना चाहिए” ( न्यूज़ रिपोर्टिंग में तालिबान का उल्लेख, सुझाव क्र. 5). इसके अलावा, इसी फ़ैसले ( न्यूज़ रिपोर्टिंग में तालिबान का उल्लेख फ़ैसला, सुझाव सं. 6) में बोर्ड ने कहा कि Meta “HIPO रैंकर [हाई इम्पैक्ट फ़ाल्स पॉज़ीटिव ओवरराइड] का यह देखने के लिए रिव्यू करे कि क्या वह खतरनाक संगठनों और लोगों से जुड़ी पॉलिसी की छूट एन्फ़ोर्स करने में होने वाली संभावित गलतियों को ज़्यादा प्रभावी रूप से प्राथमिकता दे सकता है.” दोनों सुझावों के लिए, Meta ने क्रियान्वयन के बारे में प्रगति रिपोर्ट की.
बोर्ड ने यह सुझाव दिया कि “Meta को यह सुनिश्चित करना चाहिए कि उसके पास व्यंग्यात्मक कंटेंट का ठीक से विश्लेषण करने के लिए प्रक्रियाएँ और संदर्भ हैं और यह कि संभावित रूप से व्यंग्यात्मक कंटेंट के संदर्भ की जाँच करने के लिए उसने मॉडरेटर्स को पर्याप्त निर्देश दिए हैं,” ( दो बटन वाला मीम, सुझाव सं. 3). Meta ने कहा है कि उसने इस सुझाव का आंशिक क्रियान्वयन कर दिया है.
बोर्ड ने इस बात पर ज़ोर दिया कि इन सुझावों को पूरी तरह लागू करने से खतरनाक संगठनों और लोगों से जुड़ी Meta की पॉलिसी के तहत एन्फ़ोर्समेंट की गलतियों की संख्या कम हो सकती है.
फ़ैसला
बोर्ड ने संबंधित कंटेंट को हटाने के Meta के मूल फ़ैसले को पलट दिया. बोर्ड द्वारा केस को कंपनी के ध्यान में लाए जाने के बाद, Meta द्वारा मूल फ़ैसले की गलती में किए गए सुधार को बोर्ड ने स्वीकार किया.