एकाधिक मामले का निर्णय

गोबल्स का कोटेशन

इस संक्षिप्त फ़ैसले में बोर्ड ने चार पोस्ट पर एक साथ विचार किया. चार अलग-अलग यूज़र्स ने उन पोस्ट को हटाने के Meta के फ़ैसलों के खिलाफ़ अपील की जिनमें जोसेफ़ गोबल्स का एक कोटेशन था.

4 इस बंडल में केस शामिल हैं

पलट जाना

FB-EZ2SSLB1

Facebook पर खतरनाक लोग और संगठन से जुड़ा केस

प्लैटफ़ॉर्म
Facebook
विषय
अभिव्यक्ति की आज़ादी,गलत जानकारी
मानक
ख़तरनाक लोग और संगठन
जगह
कनाडा,युनाइटेड किंगडम,अमेरिका
Date
पर प्रकाशित 18 दिसम्बर 2023
पलट जाना

FB-GI0MEB85

Facebook पर खतरनाक लोग और संगठन से जुड़ा केस

प्लैटफ़ॉर्म
Facebook
विषय
अभिव्यक्ति की आज़ादी,गलत जानकारी
मानक
ख़तरनाक लोग और संगठन
जगह
जर्मनी,अमेरिका
Date
पर प्रकाशित 18 दिसम्बर 2023
पलट जाना

FB-2X73FNY9

Facebook पर खतरनाक लोग और संगठन से जुड़ा केस

प्लैटफ़ॉर्म
Facebook
विषय
अभिव्यक्ति की आज़ादी,गलत जानकारी
मानक
ख़तरनाक लोग और संगठन
जगह
ऑस्ट्रेलिया
Date
पर प्रकाशित 18 दिसम्बर 2023
पलट जाना

FB-PFP42GAJ

Facebook पर खतरनाक लोग और संगठन से जुड़ा केस

प्लैटफ़ॉर्म
Facebook
विषय
अभिव्यक्ति की आज़ादी,गलत जानकारी
मानक
ख़तरनाक लोग और संगठन
जगह
अमेरिका
Date
पर प्रकाशित 18 दिसम्बर 2023

यह संक्षिप्त फ़ैसला है. संक्षिप्त फ़ैसलों में उन केसों का परीक्षण किया जाता है जिनमें बोर्ड द्वारा कंटेंट पर Meta का ध्यान आकर्षित के बाद कंपनी ने कंटेंट के बारे में अपने मूल फ़ैसले को पलटा है. इन फ़ैसलों में उन गलतियों की जानकारी होती है जिन्हें Meta ने स्वीकार किया है और इनमें लोगों को यह जानकारी दी जाती है कि बोर्ड के काम का क्या असर पड़ता है. उन्हें बोर्ड के सदस्यों की पैनल द्वारा स्वीकार किया गया है, न कि पूरे बोर्ड द्वारा. उनमें सार्वजनिक कमेंट प्रोसेस शामिल नहीं होती और बोर्ड आगे के फ़ैसलों के लिए उन्हें आधार भी नहीं बनाता है. संक्षिप्त फ़ैसले, Meta के सुधारों के बारे में पारदर्शिता देते हैं और यह बताते हैं कि पॉलिसी के एन्फ़ोर्समेंट के संबंध में कंपनी कहाँ सुधार कर सकती है.

केस का सारांश

इस संक्षिप्त फ़ैसले में बोर्ड ने चार पोस्ट पर एक साथ विचार किया. चार अलग-अलग यूज़र्स ने उन पोस्ट को हटाने के Meta के फ़ैसलों के खिलाफ़ अपील की जिनमें नाज़ी प्रोपेगंडा प्रमुख जोसेफ़ गोबल्स का एक कोटेशन था. हर पोस्ट में, आज के समय में गलत जानकारी फैलाने की आलोचना करने के लिए कोटेशन शेयर किया गया था. जब बोर्ड ने Meta का ध्यान इन अपीलों पर आकर्षित किया, तो कंपनी ने अपना मूल फ़ैसला पलट दिया और सभी पोस्ट को रीस्टोर कर दिया.

केस की जानकारी और बैकग्राउंड

चारों पोस्ट में जोसेफ़ गोबल्स के एक ही कोटेशन को अलग-अलग तरह से प्रस्तुत किया गया था, जो कहता है कि: “A lie told once remains a lie, but a lie told a thousand times becomes the truth.” (एक बार बोला गया झूठ हमेशा झूठ ही रहता है, लेकिन हज़ार बार बोले गए झूठ को सच मान लिया जाता है.) हर यूज़र ने कोटेशन के साथ एक कैप्शन भी जोड़ा है. कैप्शंस में नाज़ी जर्मनी और अभी की राजनैतिक बातचीत के बीच कथित ऐतिहासिक समानताओं पर यूज़र्स की राय व्यक्त की गई है. साथ ही गलत जानकारी के सामान्यीकरण के कारण स्वतंत्र अभिव्यक्ति को होने वाले खतरों की बात भी की गई है.

Meta ने मूल रूप से चारों पोस्ट को यह कहते हुए Facebook से हटा दिया था कि वे खतरनाक संगठनों और लोगों से जुड़ी उसकी पॉलिसी का उल्लंघन करती है. इस पॉलिसी के तहत कंपनी ऐसे कंटेंट को हटा देती है जिनमें नाज़ी पार्टी सहित कंपनी द्वारा खतरनाक चिह्नित लोगों और संगठनों की “प्रशंसा” की जाती है, उनका “मौलिक समर्थन” किया जाता है या उनका “प्रतिनिधित्व” किया जाता है. पॉलिसी ऐसे कंटेंट को परमिशन देती है जिसमें निष्पक्ष रूप से खतरनाक संगठन या व्यक्ति की चर्चा की जाती है या जिनमें उनके कामों की निंदा की जाती है.

चारों यूज़र्स ने अपने कंटेंट को हटाए जाने के खिलाफ़ बोर्ड में अपील की. अपनी अपील में हर यूज़र ने कहा कि उन्होंने कोटेशन को जोसेफ़ गोबल्स या नाज़ी पार्टी का समर्थन करने के लिए शेयर नहीं किया, बल्कि उनकी राजनैतिक प्रणाली पर गलत जानकारी के बुरे असर की आलोचना करने के लिए शेयर किया है. उन्होंने प्रोपेगंडा के खतरे की मुद्दे पर ऐतिहासिक सीख की प्रासंगिकता भी हाइलाइट की.

बोर्ड द्वारा इन केसों को Meta के ध्यान में लाए जाने के बाद, कंपनी ने पाया कि कंटेंट से खतरनाक संगठनों और लोगों से जुड़ी Meta की पॉलिसी का उल्लंघन नहीं हुआ और यह कि चारों पोस्ट को हटाना गलत था. कंपनी ने फिर कंटेंट को Facebook पर रीस्टोर कर दिया. Meta ने कहा कि कंटेंट में नाज़ी पार्टी के लिए कोई समर्थन मौजूद नहीं था, बल्कि उसमें “मुक्त अभिव्यक्ति के लिए नैतिकता और ज्ञानात्मक स्टैंडर्ड के महत्व को हाइलाइट करने के लिए झूठी बातों को सामान्य रूप देने के नाज़ी सेना के कैंपेन” का वर्णन शामिल था.

बोर्ड का प्राधिकार और दायरा

बोर्ड को उस व्यक्ति के अपील करने के बाद Meta के फ़ैसले का रिव्यू करने का अधिकार है, जिसका कंटेंट हटा दिया गया था (चार्टर आर्टिकल 2, सेक्शन 1; उपनियम अनुच्छेद 3, सेक्शन 1).

जहाँ बोर्ड द्वारा रिव्यू किए जा रहे केस में Meta यह स्वीकार करता है कि उससे गलती हुई है और वह अपना फ़ैसला पलट देता है, वहाँ बोर्ड उस केस का चुनाव संक्षिप्त फ़ैसले के लिए कर सकता है (उपनियम अनुच्छेद 2, सेक्शन 2.1.3). बोर्ड कंटेंट मॉडरेशन प्रोसेस के बारे में ज़्यादा जानकारी पाने, गलतियाँ कम करने और Facebook और Instagram के यूज़र्स के लिए निष्पक्षता बढ़ाने के लिए मूल फ़ैसले का रिव्यू करता है.

केस का महत्व

ये केस Meta द्वारा खतरनाक के रूप में चिह्नित संगठनों के समर्थन वाले रेफ़रेंस, जो प्रतिबंधित हैं, और निष्पक्ष या निंदा करने वाले रेफ़रेंस, जिनकी परमिशन है, में अंतर करने की कंपनी की विफलता हाइलाइट करती है. बोर्ड ने खतरनाक संगठनों और लोगों से जुड़ी Meta की पॉलिसी के संबंध में पहले कई सुझाव दिए हैं. इस कम्युनिटी स्टैंडर्ड के अपवादों को लागू करने में लगातार हो रही गलतियों के कारण यूज़र्स की ज़रूरी स्वतंत्र अभिव्यक्ति काफ़ी हद तक सीमित होती है और ये गलतियाँ इसे ऐसा महत्वपूर्ण क्षेत्र बनाती है जिसमें कंपनी को आगे सुधार करना चाहिए.

अपने एक पुराने फ़ैसले में, बोर्ड ने यह सुझाव दिया कि “सिस्टम की जिन समस्याओं के कारण एन्फ़ोर्समेंट में गलतियाँ हो रही हैं, उनका पता लगाने के लिए Meta को खतरनाक संगठनों और लोगों से जुड़ी पॉलिसी के तहत रिपोर्टिंग की छूट देने वाले रिव्यूअर्स की सटीकता का आकलन करना चाहिए” ( न्यूज़ रिपोर्टिंग में तालिबान का उल्लेख फ़ैसला, सुझाव क्र. 5). बोर्ड ने Meta से कहा कि वह “हाई इम्पैक्ट फ़ाल्स पॉज़ीटिव ओवरराइड (HIPO) रैंकर का यह परीक्षण करने के लिए रिव्यू करे कि क्या वह खतरनाक संगठनों और लोगों से जुड़ी पॉलिसी की छूट एन्फ़ोर्स करने में होने वाली संभावित गलतियों को ज़्यादा प्रभावी रूप से प्राथमिकता दे सकता है,” ( न्यूज़ रिपोर्टिंग में तालिबान का उल्लेख फ़ैसला, सुझाव सं. 6). यह रैंकर सिस्टम, अतिरिक्त रिव्यू के लिए कंटेंट से जुड़े फ़ैसलों को प्राथमिकता देते हैं, जिसका उपयोग Meta उन केसों की पहचान करने के लिए करता है जिनमें उससे गलती हुई है, जैसे कि उसने कंटेंट का गलत निष्कासन किया है. Meta अभी भी इस सुझाव की व्यवहार्यता का आकलन कर रहा है. और बोर्ड ने Meta से कहा कि वह “सभी भाषाओं में HIPO रिव्यू पर लगाए गए लोगों की संख्या बढ़ाए ताकि यह सुनिश्चित किया जा सके कि एन्फ़ोर्समेंट की संभावित गलतियों के कारण कंटेंट को हटाने के ज़्यादा से ज़्यादा फ़ैसलों का अतिरिक्त ह्यूमन रिव्यू हो” ( न्यूज़ रिपोर्टिंग में तालिबान का उल्लेख फ़ैसला, सुझाव सं. 7). Meta ने बताया कि इस सुझाव में बताया गया काम कंपनी पहले से ही कर रही है, लेकिन उसे दर्शाने वाली जानकारी प्रकाशित नहीं की जाती.

इसके अलावा, बोर्ड ने सुझाव दिया कि Meta “खतरनाक संगठनों और लोगों से जुड़ी पॉलिसी में उपयोग किए गए प्रमुख शब्दों को समझाए और उनके उपयोग के उदाहरण दे, जिनमें ‘प्रशंसा,’ ‘समर्थन’ और ‘प्रतिनिधित्व’ के अर्थ शामिल हैं और यह कि लोगों को दिए जाने वाले वे स्पष्टीकरण “वैसे ही होने चाहिए जो Facebook के आंतरिक क्रियान्वयन स्टैंडर्ड में दिए गए हैं,” ( नाज़ी उद्धरण फ़ैसला, सुझाव सं. 2). Meta ने इस सुझाव को लागू किया.

चूँकि इन केसों में एक कुख्यात व्यक्ति से समानता का उपयोग एक मौजूदा व्यक्ति या व्यवहार की निंदा करने के लिए किया गया है, इसलिए यह एक सामान्य बात है और राजनैतिक बातचीत का पूरी तरह वैधानिक रूप है. ये चार केस, बोर्ड द्वारा दिए गए सुझावों की दिशा में ज़्यादा प्रभावी उपायों की ज़रूरत दर्शाते हैं.

फ़ैसला

बोर्ड ने संबंधित कंटेंट को हटाने के Meta के मूल फ़ैसलों को पलट दिया. बोर्ड द्वारा केसों को Meta के ध्यान में लाए जाने के बाद, Meta द्वारा मूल फ़ैसलों की गलती में किए गए सुधारों को बोर्ड ने स्वीकार किया.

मामले के निर्णयों और नीति सलाहकार राय पर लौटें