एकाधिक मामले का निर्णय
गोबल्स का कोटेशन
इस संक्षिप्त फ़ैसले में बोर्ड ने चार पोस्ट पर एक साथ विचार किया. चार अलग-अलग यूज़र्स ने उन पोस्ट को हटाने के Meta के फ़ैसलों के खिलाफ़ अपील की जिनमें जोसेफ़ गोबल्स का एक कोटेशन था.
4 इस बंडल में केस शामिल हैं
FB-EZ2SSLB1
Facebook पर खतरनाक लोग और संगठन से जुड़ा केस
FB-GI0MEB85
Facebook पर खतरनाक लोग और संगठन से जुड़ा केस
FB-2X73FNY9
Facebook पर खतरनाक लोग और संगठन से जुड़ा केस
FB-PFP42GAJ
Facebook पर खतरनाक लोग और संगठन से जुड़ा केस
यह संक्षिप्त फ़ैसला है. संक्षिप्त फ़ैसलों में उन केसों का परीक्षण किया जाता है जिनमें बोर्ड द्वारा कंटेंट पर Meta का ध्यान आकर्षित के बाद कंपनी ने कंटेंट के बारे में अपने मूल फ़ैसले को पलटा है. इन फ़ैसलों में उन गलतियों की जानकारी होती है जिन्हें Meta ने स्वीकार किया है और इनमें लोगों को यह जानकारी दी जाती है कि बोर्ड के काम का क्या असर पड़ता है. उन्हें बोर्ड के सदस्यों की पैनल द्वारा स्वीकार किया गया है, न कि पूरे बोर्ड द्वारा. उनमें सार्वजनिक कमेंट प्रोसेस शामिल नहीं होती और बोर्ड आगे के फ़ैसलों के लिए उन्हें आधार भी नहीं बनाता है. संक्षिप्त फ़ैसले, Meta के सुधारों के बारे में पारदर्शिता देते हैं और यह बताते हैं कि पॉलिसी के एन्फ़ोर्समेंट के संबंध में कंपनी कहाँ सुधार कर सकती है.
केस का सारांश
इस संक्षिप्त फ़ैसले में बोर्ड ने चार पोस्ट पर एक साथ विचार किया. चार अलग-अलग यूज़र्स ने उन पोस्ट को हटाने के Meta के फ़ैसलों के खिलाफ़ अपील की जिनमें नाज़ी प्रोपेगंडा प्रमुख जोसेफ़ गोबल्स का एक कोटेशन था. हर पोस्ट में, आज के समय में गलत जानकारी फैलाने की आलोचना करने के लिए कोटेशन शेयर किया गया था. जब बोर्ड ने Meta का ध्यान इन अपीलों पर आकर्षित किया, तो कंपनी ने अपना मूल फ़ैसला पलट दिया और सभी पोस्ट को रीस्टोर कर दिया.
केस की जानकारी और बैकग्राउंड
चारों पोस्ट में जोसेफ़ गोबल्स के एक ही कोटेशन को अलग-अलग तरह से प्रस्तुत किया गया था, जो कहता है कि: “A lie told once remains a lie, but a lie told a thousand times becomes the truth.” (एक बार बोला गया झूठ हमेशा झूठ ही रहता है, लेकिन हज़ार बार बोले गए झूठ को सच मान लिया जाता है.) हर यूज़र ने कोटेशन के साथ एक कैप्शन भी जोड़ा है. कैप्शंस में नाज़ी जर्मनी और अभी की राजनैतिक बातचीत के बीच कथित ऐतिहासिक समानताओं पर यूज़र्स की राय व्यक्त की गई है. साथ ही गलत जानकारी के सामान्यीकरण के कारण स्वतंत्र अभिव्यक्ति को होने वाले खतरों की बात भी की गई है.
Meta ने मूल रूप से चारों पोस्ट को यह कहते हुए Facebook से हटा दिया था कि वे खतरनाक संगठनों और लोगों से जुड़ी उसकी पॉलिसी का उल्लंघन करती है. इस पॉलिसी के तहत कंपनी ऐसे कंटेंट को हटा देती है जिनमें नाज़ी पार्टी सहित कंपनी द्वारा खतरनाक चिह्नित लोगों और संगठनों की “प्रशंसा” की जाती है, उनका “मौलिक समर्थन” किया जाता है या उनका “प्रतिनिधित्व” किया जाता है. पॉलिसी ऐसे कंटेंट को परमिशन देती है जिसमें निष्पक्ष रूप से खतरनाक संगठन या व्यक्ति की चर्चा की जाती है या जिनमें उनके कामों की निंदा की जाती है.
चारों यूज़र्स ने अपने कंटेंट को हटाए जाने के खिलाफ़ बोर्ड में अपील की. अपनी अपील में हर यूज़र ने कहा कि उन्होंने कोटेशन को जोसेफ़ गोबल्स या नाज़ी पार्टी का समर्थन करने के लिए शेयर नहीं किया, बल्कि उनकी राजनैतिक प्रणाली पर गलत जानकारी के बुरे असर की आलोचना करने के लिए शेयर किया है. उन्होंने प्रोपेगंडा के खतरे की मुद्दे पर ऐतिहासिक सीख की प्रासंगिकता भी हाइलाइट की.
बोर्ड द्वारा इन केसों को Meta के ध्यान में लाए जाने के बाद, कंपनी ने पाया कि कंटेंट से खतरनाक संगठनों और लोगों से जुड़ी Meta की पॉलिसी का उल्लंघन नहीं हुआ और यह कि चारों पोस्ट को हटाना गलत था. कंपनी ने फिर कंटेंट को Facebook पर रीस्टोर कर दिया. Meta ने कहा कि कंटेंट में नाज़ी पार्टी के लिए कोई समर्थन मौजूद नहीं था, बल्कि उसमें “मुक्त अभिव्यक्ति के लिए नैतिकता और ज्ञानात्मक स्टैंडर्ड के महत्व को हाइलाइट करने के लिए झूठी बातों को सामान्य रूप देने के नाज़ी सेना के कैंपेन” का वर्णन शामिल था.
बोर्ड का प्राधिकार और दायरा
बोर्ड को उस व्यक्ति के अपील करने के बाद Meta के फ़ैसले का रिव्यू करने का अधिकार है, जिसका कंटेंट हटा दिया गया था (चार्टर आर्टिकल 2, सेक्शन 1; उपनियम अनुच्छेद 3, सेक्शन 1).
जहाँ बोर्ड द्वारा रिव्यू किए जा रहे केस में Meta यह स्वीकार करता है कि उससे गलती हुई है और वह अपना फ़ैसला पलट देता है, वहाँ बोर्ड उस केस का चुनाव संक्षिप्त फ़ैसले के लिए कर सकता है (उपनियम अनुच्छेद 2, सेक्शन 2.1.3). बोर्ड कंटेंट मॉडरेशन प्रोसेस के बारे में ज़्यादा जानकारी पाने, गलतियाँ कम करने और Facebook और Instagram के यूज़र्स के लिए निष्पक्षता बढ़ाने के लिए मूल फ़ैसले का रिव्यू करता है.
केस का महत्व
ये केस Meta द्वारा खतरनाक के रूप में चिह्नित संगठनों के समर्थन वाले रेफ़रेंस, जो प्रतिबंधित हैं, और निष्पक्ष या निंदा करने वाले रेफ़रेंस, जिनकी परमिशन है, में अंतर करने की कंपनी की विफलता हाइलाइट करती है. बोर्ड ने खतरनाक संगठनों और लोगों से जुड़ी Meta की पॉलिसी के संबंध में पहले कई सुझाव दिए हैं. इस कम्युनिटी स्टैंडर्ड के अपवादों को लागू करने में लगातार हो रही गलतियों के कारण यूज़र्स की ज़रूरी स्वतंत्र अभिव्यक्ति काफ़ी हद तक सीमित होती है और ये गलतियाँ इसे ऐसा महत्वपूर्ण क्षेत्र बनाती है जिसमें कंपनी को आगे सुधार करना चाहिए.
अपने एक पुराने फ़ैसले में, बोर्ड ने यह सुझाव दिया कि “सिस्टम की जिन समस्याओं के कारण एन्फ़ोर्समेंट में गलतियाँ हो रही हैं, उनका पता लगाने के लिए Meta को खतरनाक संगठनों और लोगों से जुड़ी पॉलिसी के तहत रिपोर्टिंग की छूट देने वाले रिव्यूअर्स की सटीकता का आकलन करना चाहिए” ( न्यूज़ रिपोर्टिंग में तालिबान का उल्लेख फ़ैसला, सुझाव क्र. 5). बोर्ड ने Meta से कहा कि वह “हाई इम्पैक्ट फ़ाल्स पॉज़ीटिव ओवरराइड (HIPO) रैंकर का यह परीक्षण करने के लिए रिव्यू करे कि क्या वह खतरनाक संगठनों और लोगों से जुड़ी पॉलिसी की छूट एन्फ़ोर्स करने में होने वाली संभावित गलतियों को ज़्यादा प्रभावी रूप से प्राथमिकता दे सकता है,” ( न्यूज़ रिपोर्टिंग में तालिबान का उल्लेख फ़ैसला, सुझाव सं. 6). यह रैंकर सिस्टम, अतिरिक्त रिव्यू के लिए कंटेंट से जुड़े फ़ैसलों को प्राथमिकता देते हैं, जिसका उपयोग Meta उन केसों की पहचान करने के लिए करता है जिनमें उससे गलती हुई है, जैसे कि उसने कंटेंट का गलत निष्कासन किया है. Meta अभी भी इस सुझाव की व्यवहार्यता का आकलन कर रहा है. और बोर्ड ने Meta से कहा कि वह “सभी भाषाओं में HIPO रिव्यू पर लगाए गए लोगों की संख्या बढ़ाए ताकि यह सुनिश्चित किया जा सके कि एन्फ़ोर्समेंट की संभावित गलतियों के कारण कंटेंट को हटाने के ज़्यादा से ज़्यादा फ़ैसलों का अतिरिक्त ह्यूमन रिव्यू हो” ( न्यूज़ रिपोर्टिंग में तालिबान का उल्लेख फ़ैसला, सुझाव सं. 7). Meta ने बताया कि इस सुझाव में बताया गया काम कंपनी पहले से ही कर रही है, लेकिन उसे दर्शाने वाली जानकारी प्रकाशित नहीं की जाती.
इसके अलावा, बोर्ड ने सुझाव दिया कि Meta “खतरनाक संगठनों और लोगों से जुड़ी पॉलिसी में उपयोग किए गए प्रमुख शब्दों को समझाए और उनके उपयोग के उदाहरण दे, जिनमें ‘प्रशंसा,’ ‘समर्थन’ और ‘प्रतिनिधित्व’ के अर्थ शामिल हैं और यह कि लोगों को दिए जाने वाले वे स्पष्टीकरण “वैसे ही होने चाहिए जो Facebook के आंतरिक क्रियान्वयन स्टैंडर्ड में दिए गए हैं,” ( नाज़ी उद्धरण फ़ैसला, सुझाव सं. 2). Meta ने इस सुझाव को लागू किया.
चूँकि इन केसों में एक कुख्यात व्यक्ति से समानता का उपयोग एक मौजूदा व्यक्ति या व्यवहार की निंदा करने के लिए किया गया है, इसलिए यह एक सामान्य बात है और राजनैतिक बातचीत का पूरी तरह वैधानिक रूप है. ये चार केस, बोर्ड द्वारा दिए गए सुझावों की दिशा में ज़्यादा प्रभावी उपायों की ज़रूरत दर्शाते हैं.
फ़ैसला
बोर्ड ने संबंधित कंटेंट को हटाने के Meta के मूल फ़ैसलों को पलट दिया. बोर्ड द्वारा केसों को Meta के ध्यान में लाए जाने के बाद, Meta द्वारा मूल फ़ैसलों की गलती में किए गए सुधारों को बोर्ड ने स्वीकार किया.