पलट जाना

इक्वाडोर की फ़ोर्स द्वारा दुर्व्यवहार

एक यूज़र ने Facebook से इक्वाडोर के एक ऐसे वीडियो को हटाने के Meta के फ़ैसले के खिलाफ़ अपील की जिसमें लोगों को बाँधकर ऐसे लोगों द्वारा उन्हें पैरों से कुचला और उन्हें लाठियों से पीटा जा रहा था जो सेना की यूनिफ़ॉर्म पहने दिखाई पड़ते हैं.

निर्णय का प्रकार

सारांश

नीतियां और विषय

विषय
अभिव्यक्ति की स्वतंत्रता, राजनीति, सरकारें
सामुदायिक मानक
नफ़रत फ़ैलाने वाली भाषा, हिंसक और आपत्तिजनक कंटेंट, हिंसा और उकसावा

क्षेत्र/देश

जगह
इक्वाडोर

प्लैटफ़ॉर्म

प्लैटफ़ॉर्म
Facebook

संक्षिप्त फ़ैसलों में उन केसों का परीक्षण किया जाता है जिनमें बोर्ड द्वारा कंटेंट पर Meta का ध्यान आकर्षित के बाद कंपनी ने कंटेंट के बारे में अपने मूल फ़ैसले को पलटा है और इसमें Meta द्वारा मानी गई गलतियों की जानकारी होती है. उन्हें पूरे बोर्ड के बजाय, बोर्ड के किसी सदस्य द्वारा स्वीकृत किया जाता है, उनमें पब्लिक कमेंट शामिल नहीं होते और उन्हें बोर्ड द्वारा आगे के फ़ैसलों के लिए आधार नहीं बनाया जा सकता. संक्षिप्त फ़ैसले, Meta के फ़ैसलों में सीधे बदलाव लाते हैं, इन सुधारों के बारे में पारदर्शिता देते हैं और साथ ही यह बताते हैं कि Meta अपने एन्फ़ोर्समेंट में कहाँ सुधार कर सकता है.

सारांश

एक यूज़र ने Facebook से इक्वाडोर के एक ऐसे वीडियो को हटाने के Meta के फ़ैसले के खिलाफ़ अपील की जिसमें लोगों को बाँधकर ऐसे लोगों द्वारा उन्हें पैरों से कुचला और उन्हें लाठियों से पीटा जा रहा था जो सेना की यूनिफ़ॉर्म पहने दिखाई पड़ते हैं. जब बोर्ड ने Meta का ध्यान अपील पर आकर्षित किया, तो कंपनी ने अपना मूल फ़ैसला पलट दिया और पोस्ट को रीस्टोर कर दिया. साथ ही उस पर “संवेदनशील के रूप में चिह्नित” चेतावनी स्क्रीन भी लगा दी.

केस की जानकारी

जनवरी 2024 में, Facebook के एक यूज़र ने एक ऐसा वीडियो पोस्ट किया जिसमें कुछ लोगों को बाँधकर मुँह के बल ज़मीन पर लिटाया गया था जबकि चकत्तेदार कपड़ों वाले कुछ अन्य लोग उनकी गर्दन और पीठ पर बार-बार पैर रख रहे हैं ताकि वे वैसी ही स्थिति में बने रहें. उन्हें लाठियों से पीटा जा रहा है. वीडियो में किसी भी व्यक्ति का चेहरा दिखाई नहीं दे रहा है. उसमें शामिल ऑडियो में कोई व्यक्ति “maricón” कह रहा है जिसे बोर्ड ने कोलंबिया में विरोध प्रदर्शन से जुड़े अपने फ़ैसले में एक ऐसी गाली माना है जिसे Meta द्वारा चिह्नित किया गया है. पोस्ट में स्पैनिश भाषा में टेक्स्ट भी शामिल है जिसमें “अरक्षित” और “निहत्थे” कैदियों को पीटे जाने की निंदा की गई है.

इस कंटेंट को पोस्ट किए जाने के आसपास के समय के दौरान, इक्वाडोर की जेलों में कैदियों के दंगे हुए थे जिनमें जेल के सुरक्षाकर्मियों और प्रशासनिक कर्मियों को बंधक बना लिया गया था. इक्वाडोर की सरकार ने आपातकाल घोषित करके कर्फ़्यू लगा दिया था. पुलिस और सेना ने तब कुछ जेलों का नियंत्रण फिर से हासिल किया. सेना ने सैकड़ों कैदियों की फ़ोटो शेयर की थीं जिनमें उन्हें ऊपरी कपड़ों के बिना, नंगे पैर ज़मीन पर लेटे हुए दिखाया गया था.

Meta ने शुरुआत में यूज़र की पोस्ट को हिंसा और उकसावे से जुड़े अपने कम्युनिटी स्टैंडर्ड के तहत Facebook से हटा दिया. यह स्टैंडर्ड हिंसा की धमकियों को प्रतिबंधित करता है जिन्हें “ऐसे कथनों या विज़ुअल के रूप में परिभाषित किया गया है जिनमें किसी टार्गेट पर हिंसा का इरादा, महत्वाकांक्षा या आह्वान होता है.”

जब बोर्ड द्वारा इस केस को Meta के ध्यान में लाया गया, तो कंपनी ने ऐसा कोई कारण नहीं बताया कि कंटेंट को हिंसा और उकसावे से जुड़े कम्युनिटी स्टैंडर्ड के तहत क्यों हटाया गया था. कंपनी ने इस कंटेंट के आकलन नफ़रत फैलाने वाली भाषा से जुड़े कम्युनिटी स्टैंडर्ड के तहत भी किया. Meta ने बताया कि भले ही कंटेंट में एक गाली थी, लेकिन नफ़रत फैलाने वाली भाषा से जुड़े कम्युनिटी स्टैंडर्ड में ऐसे कंटेंट के लिए इसकी परमिशन दी गई थी जिसमें “किसी अभिव्यक्ति की निंदा करने या उसकी रिपोर्ट करने के लिए गालियाँ या किसी अन्य व्यक्ति की नफ़रत फैलाने वाली भाषा शामिल हो.”

Meta ने यह भी बताया कि हिंसक और आपत्तिजनक कंटेंट से जुड़े कम्युनिटी स्टैंडर्ड के तहत, कंपनी ऐसी इमेजरी पर “संवेदनशील के रूप में चिह्नित” चेतावनी स्क्रीन लगाती है जिसमें “एक या उससे ज़्यादा व्यक्तियों पर हिंसा की जा रही हो और/या पुलिस का काम कर रहे और यूनिफ़ॉर्म पहने एक या उससे ज़्यादा लोगों द्वारा अपमानित करने के कृत्य किए जा रहे हों.” कंपनी ने कंटेंट को Facebook पर रीस्टोर कर दिया और उस पर “संवेदनशील के रूप में चिह्नित” लेबल लगा दिया.

बोर्ड का प्राधिकार और दायरा

बोर्ड को उस यूज़र के अपील करने के बाद Meta के फ़ैसले का रिव्यू करने का अधिकार है, जिसका कंटेंट हटा दिया गया था (चार्टर अनुच्छेद 2, सेक्शन 1; उपनियम अनुच्छेद 3, सेक्शन 1).

जहाँ बोर्ड द्वारा रिव्यू किए जा रहे केस में Meta यह स्वीकार करता है कि उससे गलती हुई है और वह अपना फ़ैसला पलट देता है, वहाँ बोर्ड उस केस का चुनाव संक्षिप्त फ़ैसले के लिए कर सकता है (उपनियम अनुच्छेद 2, सेक्शन 2.1.3). बोर्ड, कंटेंट मॉडरेशन प्रोसेस के बारे में ज़्यादा जानकारी पाने, गलतियों में कमी लाने और Facebook, Instagram और Threads के यूज़र्स के लिए निष्पक्षता बढ़ाने के लिए मूल फ़ैसले का रिव्यू करता है.

केस की सार्थकता

यह केस हिंसा और उकसावे, हिंसक और आपत्तिजनक कंटेंट और नफ़रत फैलाने वाली भाषा से जुड़ी पॉलिसी को एन्फ़ोर्स करने में Meta को आने वाली चुनौतियों को हाइलाइट करता है. ये चुनौतियाँ खास तौर पर तब कठिन होती हैं जब उनका संबंध संकट की स्थितियों में जागरूकता फैलाने के लिए हिंसा और दुर्व्यवहार के डॉक्यूमेंटेशन से होता है.

हिंसा और उकसावे से जुड़े कम्युनिटी स्टैंडर्ड के लिए, बोर्ड ने सुझाव दिया कि Meta को “लोगों को दिखाई देने वाली भाषा में यह जोड़ना चाहिए... कि कंपनी के अनुसार पॉलिसी में ‘किसी कार्रवाई के संभावित परिणाम के निष्पक्ष रेफ़रेंस या परामर्शी चेतावनी’ वाले कंटेंट और ‘हिंसक धमकियों की निंदा करने या उनके खिलाफ़ जागरूकता फैलाने’ वाले कंटेंट की परमिशन है,” ( रूसी कविता, सुझाव सं. 1). इस सुझाव को लागू कर दिया गया है. फ़रवरी 2024 तक, Meta ने इस पॉलिसी को यह शामिल करने के लिए अपडेट कर दिया है कि वह धमकियों को उन स्थितियों में प्रतिबंधित नहीं करता जब उन्हें जागरूकता फैलाने या निंदा करने के संदर्भ में शेयर किया जाता है.

हिंसक और आपत्तिजनक कंटेंट से जुड़े कम्युनिटी स्टैंडर्ड के संबंध में, बोर्ड ने सुझाव दिया कि Meta को “उन स्थितियों में Instagram यूज़र्स को सूचित करना चाहिए जब उनके कंटेंट पर चेतावनी स्क्रीन लगाई जाती है और उन्हें ऐसा करने का पॉलिसी से जुड़ा खास कारण बताना चाहिए,” ( नाइजीरिया के चर्च पर हुए हमले के बाद का वीडियो, सुझाव सं. 2). Meta ने इस सुझाव के क्रियान्वयन के बारे में प्रगति रिपोर्ट की. अपने बोर्ड के लिए Q4 2023 के अपडेट में, Meta ने कहा: “हमारे प्लेटफ़ॉर्म का उपयोग करने वाले लोगों को एन्फ़ोर्समेंट के निर्धारण और उनके कंटेंट के संबंध में किए गए सुरक्षा उपायों के बारे में ज़्यादा व्यापक विवरण प्राप्त करने की अपेक्षा होती है, जिसमें चेतावनी स्क्रीन का क्रियान्वयन भी शामिल है. यह देखते हुए कि यह हमारी व्यापक अनुपालन प्रक्रिया का एक अभिन्न अंग है, हमारा अनुमान है कि हम 2024 में आगे ज़्यादा व्यापक अपडेट डिलीवर करेंगे.”

नफ़रत फैलाने वाली भाषा के संबंध में, बोर्ड ने सुझाव दिया कि Meta “नफ़रत फैलाने वाली भाषा से जुड़े कम्युनिटी स्टैंडर्ड में बदलाव करे और उसमें ऐसी गालियों की पत्रकारितापूर्ण रिपोर्टिंग की स्पष्ट रूप से रक्षा करे जब ऐसी रिपोर्टिंग, खास तौर पर चुनावों के संदर्भ में, से बहिष्कार और/या डर का माहौल न बनता हो. इस अपवाद को सार्वजनिक किया जाना चाहिए और उसे ‘जागरूकता फैलाने’ और ‘आलोचना करने’ के अपवादों से अलग रखा जाना चाहिए,” ( तुर्की में राष्ट्रपति चुनाव से पहले हुआ राजनैतिक विवाद, सुझाव सं. 1). इस सुझाव के क्रियान्वयन के बारे में प्रगति रिपोर्ट की गई है. यह सुझाव भी दिया गया था कि Meta को “संभावित रूप से कम्युनिटी स्टैंडर्ड का उल्लंघन करने वाले जनहित के कंटेंट को अतिरिक्त रिव्यू के लिए भेजने हेतु कंटेंट रिव्यूअर्स के लिए स्पष्ट शर्तें तैयार करनी चाहिए और उनका प्रचार करना चाहिए,” ( कोलंबिया के विरोध प्रदर्शन, सुझाव सं. 3). Meta ने इस बारे में कहा कि वह ऐसा काम पहले से करता आ रहा है लेकिन क्रियान्वयन दर्शाने के लिए उसने कोई जानकारी प्रकाशित नहीं की.

बोर्ड मानता है कि इन सुझावों को पूरी तरह लागू करने से हिंसा और उकसावे, हिंसक और आपत्तिजनक कंटेंट और नफ़रत फैलाने वाली भाषा जैसी सभी पॉलिसी के तहत एन्फ़ोर्समेंट की गलतियों की संख्या कम हो सकती है.

फ़ैसला

बोर्ड ने संबंधित कंटेंट को हटाने के Meta के मूल फ़ैसले को पलट दिया. बोर्ड द्वारा केस को Meta के ध्यान में लाए जाने के बाद, Meta द्वारा मूल फ़ैसले की गलती में किए गए सुधार को बोर्ड ने स्वीकार किया.

मामले के निर्णयों और नीति सलाहकार राय पर लौटें