पलट जाना
अमेरिका के उम्मीदवारों की अपमानजनक फ़ोटो चुनाव
एक यूज़र ने एक ऐसे कंटेंट को हटाने के Meta के फ़ैसले के खिलाफ़ अपील की जिसमें अमेरिका के राष्ट्रपति पद की उम्मीदवार कमला हैरिस और चुनाव लड़ रहे उनके साथी टिम वाल्ज़ का हेरफेर किया गया और अपमानजनक चित्रण था.
संक्षिप्त फ़ैसलों में उन केसों का परीक्षण किया जाता है जिनमें बोर्ड द्वारा कंटेंट पर Meta का ध्यान आकर्षित के बाद कंपनी ने कंटेंट के बारे में अपने मूल फ़ैसले को पलटा है और इसमें Meta द्वारा मानी गई गलतियों की जानकारी होती है. उन्हें पूरे बोर्ड के बजाय, बोर्ड के किसी सदस्य द्वारा स्वीकृत किया जाता है, उनमें पब्लिक कमेंट शामिल नहीं होते और उन्हें बोर्ड द्वारा आगे के फ़ैसलों के लिए आधार नहीं बनाया जा सकता. संक्षिप्त फ़ैसले, Meta के फ़ैसलों में सीधे बदलाव लाते हैं, इन सुधारों के बारे में पारदर्शिता देते हैं और साथ ही यह बताते हैं कि Meta अपने एन्फ़ोर्समेंट में कहाँ सुधार कर सकता है.
सारांश
एक यूज़र ने एक ऐसे कंटेंट को हटाने के Meta के फ़ैसले के खिलाफ़ अपील की जिसमें अमेरिका के राष्ट्रपति पद की उम्मीदवार कमला हैरिस और चुनाव लड़ रहे उनके साथी टिम वाल्ज़ का हेरफेर किया गया और अपमानजनक चित्रण था. जब बोर्ड ने Meta का ध्यान अपील पर आकर्षित किया, तो कंपनी ने अपना मूल फ़ैसला पलट दिया और पोस्ट को रीस्टोर कर दिया.
केस की जानकारी
अगस्त 2024 में, Facebook के एक यूज़र ने 1994 की कॉमेडी फ़िल्म “डंब एंड डंबर” के पोस्टर पर आधारित एक हेरफेर की गई फ़ोटो पोस्ट की. हेरफेर की गई इस फ़ोटो में मूल कलाकारों के चेहरों को अमेरिका के राष्ट्रपति पद की उम्मीदवार, उपराष्ट्रपति कमला हैरिस और चुनाव लड़ रहे उनके साथी, मिनेसोटा के राज्यपाल टिम वाल्ज़ के चेहरों से बदल दिया गया था. जैसा कि मूल पोस्टर में दिखाया गया है, दोनों व्यक्ति कपड़ों के ऊपर से एक-दूसरे के निप्पल पकड़ रहे हैं. कंटेंट को ऐसे कैप्शन के साथ पोस्ट किया गया था जिसमें “🤷♂️🖕🖕” इमोजी शामिल थे. Meta ने शुरुआत में यूज़र की पोस्ट को अपने धमकी और उत्पीड़न से जुड़े कम्युनिटी स्टैंडर्ड का उल्लंघन करने के कारण Facebook से हटा दिया था. यह कम्युनिटी स्टैंडर्ड “अपमानजनक कामुक फ़ोटोशॉप या ड्रॉइंग” को प्रतिबंधित करता है. जब बोर्ड ने इस केस पर Meta का ध्यान दिलाया, तो कंपनी ने पाया कि कंटेंट को हटाने का उसका फ़ैसला गलत था और उसने पोस्ट को Facebook पर रीस्टोर कर दिया. Meta ने बताया कि इस केस में उसके कम्युनिटी स्टैंडर्ड का उल्लंघन नहीं हुआ था क्योंकि कंपनी मानती है कि कपड़ों के ऊपर से किसी व्यक्ति के निप्पल को दबाना यौन गतिविधि नहीं कहलाती है.
बोर्ड का प्राधिकार और दायरा
बोर्ड को उस यूज़र के अपील करने के बाद Meta के फ़ैसले का रिव्यू करने का अधिकार है, जिसका कंटेंट हटा दिया गया था (चार्टर अनुच्छेद 2, सेक्शन 1; उपनियम अनुच्छेद 3, सेक्शन 1).
जहाँ बोर्ड द्वारा रिव्यू किए जा रहे केस में Meta यह स्वीकार करता है कि उससे गलती हुई है और वह अपना फ़ैसला पलट देता है, वहाँ बोर्ड उस केस का चुनाव संक्षिप्त फ़ैसले के लिए कर सकता है (उपनियम अनुच्छेद 2, सेक्शन 2.1.3). बोर्ड, कंटेंट मॉडरेशन प्रोसेस के बारे में ज़्यादा जानकारी पाने, गलतियों में कमी लाने और Facebook, Instagram और Threads के यूज़र्स के लिए निष्पक्षता बढ़ाने के लिए मूल फ़ैसले का रिव्यू करता है.
केस की सार्थकता
महिला सार्वजनिक हस्तियों की AI से बनी अश्लील फ़ोटो केसों में, बोर्ड ने फ़ैसला किया कि AI से बनी दो फ़ोटो में Meta के उस नियम का उल्लंघन हुआ है जिसमें धमकी और उत्पीड़न से जुड़ी पॉलिसी के तहत “अपमानजनक कामुक फ़ोटोशॉप” प्रतिबंधित है. दोनों फ़ोटो को एडिट करके दो सार्वजनिक हस्तियों के चेहरों का उपयोग किया गया था लेकिन उनका बाकी शरीर किसी अन्य फ़ोटो (असली या काल्पनिक) से लिया गया था जो नग्न था. हालाँकि, इस केस में बोर्ड ने राजनैतिक हस्तियों के गैर-यौन अपमानजनक चित्रण के रूप में व्यंग्य और राजनैतिक बयानों के संबंध में Meta की धमकी और उत्पीड़न से जुड़ी पॉलिसी का ज़रूरत से ज़्यादा एन्फ़ोर्समेंट हाइलाइट किया है. बोर्ड ने इस बात की ओर इशारा भी किया कि धमकी और उत्पीड़न से जुड़ी पॉलिसी के ज़रूरत से ज़्यादा एन्फ़ोर्समेंट के क्या नुकसान हो सकते हैं, खास तौर पर चुनाव के संदर्भ में, क्योंकि इस कारण अत्यधिक मात्रा में राजनैतिक बयानबाज़ी हटाई जा सकती है और सरकारी अधिकारियों और राजनैतिक उम्मीदवारों की आलोचना करने, व्यंग्यात्मक आलोचना सहित, की योग्यता कमज़ोर पड़ सकती है. यह पोस्ट प्रमुख राजनेताओं की सामान्य व्यंग्यात्मक फ़ोटो से ज़्यादा कुछ भी नहीं है और इसे आसानी से पहचाना जा सकता है. चुनावों के संदर्भ में, बोर्ड ने पहले सुझाव दिया था कि Meta को चुनाव की निष्पक्षता से जुड़ी अपनी कोशिशों का मूल्यांकन करने के लिए एक फ़्रेमवर्क बनाना चाहिए ताकि कंपनी को अपने कंटेंट मॉडरेशन सिस्टम को समग्र रूप से बेहतर बनाने और यह तय करने के लिए प्रासंगिक डेटा मिल सके कि चुनाव के संदर्भों में उसके रिसोर्स का सबसे अच्छा उपयोग कैसे किया जाए ( ब्राज़ील के जनरल का भाषण, सुझाव सं. 1). Meta ने इस सुझाव के क्रियान्वयन के बारे में प्रगति रिपोर्ट की है. इसके बावजूद, इस पोस्ट की प्रकृति को पहचानने और उससे उचित व्यवहार करने में कंपनी की विफलता उन सिस्टम और रिसोर्स के बारे में गंभीर चिंताएँ खड़ी करते हैं जो Meta ने ऐसे चुनावी संदर्भों में कंटेंट के प्रभावी रूप से निर्धारण के लिए लगाए हैं.
बोर्ड ने पहले Meta से कहा है कि वह प्रासंगिक संदर्भ में कंटेंट के मूल्यांकन के लिए उचित प्रक्रियाएँ बनाए. उदाहरण के लिए, बोर्ड ने कहा कि Meta को: “यह सुनिश्चित करना चाहिए कि व्यंग्यात्मक कंटेंट और प्रासंगिक संदर्भ का ठीक से आकलन करने के लिए उसके पास पर्याप्त कार्यविधियाँ मौजूद हैं,” ( “दो बटन” वाला मीम, सुझाव सं. 3). Meta ने रिपोर्ट किया कि उसने इस सुझाव को लागू कर दिया है लेकिन उसने यह दिखाने के लिए कोई जानकारी प्रकाशित नहीं की है.
बोर्ड ने यह भी कहा कि धमकी और उत्पीड़न से जुड़े कम्युनिटी स्टैंडर्ड में “यूज़र्स को यह स्पष्ट रूप से समझाया जाना चाहिए कि धमकी और उत्पीड़न किस तरह से उस भाषा से अलग है जिससे सिर्फ़ अभद्रता होती है और जिसे अंतरराष्ट्रीय मानवाधिकार कानून के तहत रोका जा सकता है,” ( नवालनी के समर्थन में विरोध प्रदर्शन, सुझाव सं. 2). व्यवहार्यता का आकलन करने के बाद, Meta ने इस सुझाव को लागू करने से मना कर दिया. अंत में बोर्ड ने कहा कि Meta को: “बनाई गई पॉलिसी लाइन को स्पष्ट करने के लिए धमकी और उत्पीड़न के कम्युनिटी स्टैंडर्ड में उल्लंघन करने वाले और उल्लंघन न करने वाले कंटेंट के व्याख्यात्मक उदाहरण शामिल करें और यह बताएँ कि ये अंतर किस तरह से टार्गेट की पहचान के स्टेटस पर निर्भर करते हैं,” ( नवालनी के समर्थन में विरोध प्रदर्शन, सुझाव सं. 4). व्यवहार्यता का आकलन करने के बाद, Meta ने इस सुझाव को लागू करने से मना कर दिया.
बोर्ड मानता है कि संदर्भ के प्रभावी आकलन और चुनाव की निष्पक्षता के फ़्रेमवर्क के निर्माण के ऐसे सुझावों को लागू करने से एन्फ़ोर्समेंट की गलतियों में कमी आएगी.
फ़ैसला
बोर्ड ने संबंधित कंटेंट को हटाने के Meta के मूल फ़ैसले को पलट दिया. बोर्ड द्वारा केस को Meta के ध्यान में लाए जाने के बाद, Meta द्वारा मूल फ़ैसले की गलती में किए गए सुधार को बोर्ड ने स्वीकार किया.