पलट जाना
अल्लाह का शुक्रिया
एक यूज़र ने अपनी Instagram पोस्ट हटाने के Meta के फ़ैसले के खिलाफ़ अपील की. पोस्ट में दुल्हन के लिबास में यूज़र की एक फ़ोटो थी जिसके कैप्शन में “अल्हम्दुलिल्लाह” लिखा गया था.
यह संक्षिप्त फ़ैसला है. संक्षिप्त फ़ैसलों में उन केसों का परीक्षण किया जाता है जिनमें बोर्ड द्वारा कंटेंट पर Meta का ध्यान आकर्षित के बाद कंपनी ने कंटेंट के बारे में अपने मूल फ़ैसले को पलटा. इन फ़ैसलों में वह जानकारी भी शामिल है जिनमें Meta ने अपनी गलतियाँ मानीं. उन्हें बोर्ड के सदस्यों की पैनल द्वारा स्वीकार किया गया, न कि पूरे बोर्ड द्वारा. उनमें सार्वजनिक कमेंट पर विचार नहीं किया जाता और बोर्ड आगे के फ़ैसलों के लिए उन्हें आधार भी नहीं बनाता है. संक्षिप्त फ़ैसले, Meta के सुधारों के बारे में पारदर्शिता देते हैं और उसकी पॉलिसी के एन्फ़ोर्समेंट में संभावित सुधारों के क्षेत्र हाइलाइट करते हैं.
केस का सारांश
एक यूज़र ने अपनी Instagram पोस्ट हटाने के Meta के फ़ैसले के खिलाफ़ अपील की. पोस्ट में दुल्हन के लिबास में यूज़र की एक फ़ोटो थी जिसके कैप्शन में “अल्हम्दुलिल्लाह” लिखा गया था. आम तौर पर इस शब्द का मतलब “अल्लाह का शुक्रिया” होता है. जब ओवरसाइट बोर्ड ने Meta का ध्यान अपील पर आकर्षित किया, तो कंपनी ने अपना मूल फ़ैसला पलट दिया और पोस्ट को रीस्टोर कर दिया.
केस की जानकारी और बैकग्राउंड
जून 2023 को पाकिस्तान की एक Instagram यूज़र ने दुल्हन के लिबास में अपनी एक फ़ोटो पोस्ट की. यह फ़ोटो शादी से पहले के एक पारंपरिक अवसर पर ली गई थी. पोस्ट के साथ दिए कैप्शन में “अल्हम्दुलिल्लाह” लिखा था, जिसका उपयोग मुस्लिम और अरब समाज के कई लोगों द्वारा किया जाता है और इसका मतलब होता है “अल्लाह का शुक्रिया.” पोस्ट को 1,000 से कम बार देखा गया.
पोस्ट को कंपनी की खतरनाक संगठनों और लोगों से जुड़ी पॉलिसी का उल्लंघन करने के कारण हटा दिया गया था. यह पॉलिसी ऐसे कंटेंट को प्रतिबंधित करती है जिसमें ऐसे संगठनों या लोगों की प्रशंसा, प्रामाणिक समर्थन या प्रतिनिधित्व होता है जिन्हें Meta खतरनाक मानता है.
बोर्ड को दिए अपने कथन में यूज़र ने इस बात पर ज़ोर दिया कि “अल्हम्दुलिल्लाह” एक सामान्य सांस्कृतिक अभिव्यक्ति है जिसका उपयोग आभार व्यक्त करने के लिए किया जाता है और “इसका नफ़रत फैलाने वाले किसी ग्रुप से कोई सीधा संबंध नहीं है, इसकी प्रकृति नफ़रत फैलाने वाली नहीं है या इसका किसी खतरनाक संगठन से भी कोई संबंध नहीं है.” बोर्ड इस शब्द पर Meta के कम्युनिटी स्टैंडर्ड के तहत सुरक्षित अभिव्यक्ति के रूप में, अभिव्यक्ति की आज़ादी और कंपनी की “अभिव्यक्ति” की सुरक्षा की वैल्यू के अनुसार विचार करेगा.
यूज़र ने यह कहते हुए इस शब्द की लोकप्रियता पर ज़ोर दिया कि “यह शब्द दुनिया के 2 अरब से ज़्यादा मुस्लिमों में सबसे लोकप्रिय शब्दों में से एक है... अगर इस कारण से पोस्ट को हटाया गया है, तो मैं समझती हूँ कि इससे Instagram पर मुस्लिम समुदाय को बहुत बड़ा नुकसान होगा और इसे मुस्लिमों की उपेक्षा समझा जा सकता है.”
जब बोर्ड ने Meta का ध्यान इस केस की ओर आकर्षित किया, तो कंपनी ने पाया कि कंटेंट में “चिह्नित संगठनों या व्यक्तियों का कोई संदर्भ नहीं है” और इसलिए वह कंपनी की खतरनाक संगठन और लोगों से जुड़ी पॉलिसी का उल्लंघन नहीं करता. इसके बाद, Meta ने कंटेंट को फिर Instagram पर रीस्टोर कर दिया.
बोर्ड का प्राधिकार और दायरा
बोर्ड को उस यूज़र के अपील करने के बाद Meta के फ़ैसले का रिव्यू करने का अधिकार है, जिसका कंटेंट हटा दिया गया था (चार्टर अनुच्छेद 2, सेक्शन 1; उपनियम आर्टिकल 3, सेक्शन 1).
जहाँ बोर्ड द्वारा रिव्यू किए जा रहे केस में Meta यह स्वीकार करता है कि उससे गलती हुई है और वह अपना फ़ैसला पलट देता है, वहाँ बोर्ड उस केस का चुनाव संक्षिप्त फ़ैसले के लिए कर सकता है (उपनियम अनुच्छेद 2, सेक्शन 2.1.3). बोर्ड कंटेंट मॉडरेशन प्रोसेस के बारे में ज़्यादा जानकारी पाने, गलतियाँ कम करने और Facebook और Instagram का उपयोग करने वाले लोगों के लिए निष्पक्षता बढ़ाने के लिए मूल फ़ैसले का रिव्यू करता है.
केस का महत्व
यह केस बताता है कि Meta, खतरनाक संगठनों और लोगों से जुड़ी अपनी पॉलिसी का उपयोग अलग-अलग तरह से करता है जिसके कारण कंटेंट को गलत तरीके से प्लेटफ़ॉर्म से हटाया जा सकता है. एन्फ़ोर्समेंट से जुड़ी ऐसी गलतियों का यूज़र्स से निष्पक्ष व्यवहार करने की Meta की ज़िम्मेदारी पर बुरा असर पड़ता है.
पहले बोर्ड ने Meta की खतरनाक संगठनों और लोगों से जुड़ी पॉलिसी के एन्फ़ोर्समेंट के संबंध में सुझाव दिए हैं. बोर्ड ने यह सुझाव दिया है कि Meta, “खतरनाक संगठनों और लोगों से जुड़ी पॉलिसी के एन्फ़ोर्समेंट के लिए बनाई गई ऑटोमेटेड प्रोसेस का मूल्यांकन करे” ( ओजलान का एकांतवास फ़ैसला, सुझाव सं. 2). Meta ने इस सुझाव को लागू करने से मना कर दिया. इसके अलावा, बोर्ड ने सुझाव दिया है कि Meta “सभी भाषाओं में हाई इंपैक्ट फ़ाल्स पॉज़िटिव ओवरराइड सिस्टम पर लगाए गए लोगों की संख्या बढ़ाए ताकि यह सुनिश्चित किया जा सके कि एन्फ़ोर्समेंट की संभावित गलतियों के कारण कंटेंट को हटाने के ज़्यादा से ज़्यादा फ़ैसलों का अतिरिक्त ह्यूमन रिव्यू हो” ( न्यूज़ रिपोर्टिंग में तालिबान का उल्लेख फ़ैसला, सुझाव सं. 7). Meta ने कहा कि वह ऐसा काम पहले से करता आ रहा है लेकिन इसे दर्शाने के लिए उसने कोई जानकारी प्रकाशित नहीं की. अंत में, बोर्ड ने सुझाव दिया कि Meta “खतरनाक लोगों और संगठनों की “प्रशंसा” और “समर्थन” करने से जुड़े नियमों के लिए एन्फ़ोर्समेंट की गलतियों की दर के बारे में और विस्तृत जानकारी प्रकाशित करे जिसमें क्षेत्र और भाषा के अनुसार विवरण दिया गया हो ( ओजलान का एकांतवास फ़ैसला, सुझाव सं. 12). Meta ने इस सुझाव को लागू करने से मना कर दिया.
इस केस में, ऐसे किसी भी संगठन या व्यक्ति का उल्लेख नहीं था जिसे खतरनाक माना जा सकता हो. बोर्ड ने कई केसों में यह नोट किया है कि संस्कृति की गलत जानकारी की समस्याओं और अनुवाद की गलतियों के कारण Meta की पॉलिसी का गलत एन्फ़ोर्समेंट हो सकता है. बोर्ड ने अरबी भाषा के कंटेंट के मॉडरेशन के संबंध में भी सुझाव दिए हैं. बोर्ड ने सुझाव दिया है कि Meta, “आंतरिक क्रियान्वयन मानकों और ज्ञात सवालों का अनुवाद करे” जो “आधुनिक मानक अरबी” के कंटेंट मॉडरेटर्स के लिए मार्गदर्शन का काम करते हैं ( अरबी शब्दों को स्वीकार्य उपयोग में लाना फ़ैसला, सुझाव सं. 1). Meta ने इस सुझाव को लागू करने से मना कर दिया.
बोर्ड ने इस बात पर ज़ोर दिया कि ऊपर दिए गए सुझावों को पूरी तरह लागू करने से खतरनाक संगठनों और लोगों से जुड़ी पॉलिसी के तहत होने वाली एन्फ़ोर्समेंट की गलतियों को कम करने में मदद मिलेगी जिससे कंटेंट को गलत तरीके से हटाने से प्रभावित होने वाले यूज़र्स की संख्या में कमी आएगी.
फ़ैसला
बोर्ड ने संबंधित कंटेंट को हटाने के Meta के मूल फ़ैसले को पलट दिया. बोर्ड द्वारा केस को Meta के ध्यान में लाए जाने के बाद, Meta द्वारा मूल फ़ैसले की गलती में किए गए सुधार को बोर्ड ने स्वीकार किया.