एकाधिक मामले का निर्णय

यूके के दंगों का समर्थन करने वाली पोस्ट

2024 की गर्मियों में यूके में हुए दंगों के दौरान शेयर की गई अलग-अलग पोस्ट का रिव्यू करने के दौरान, बोर्ड ने उन पोस्ट को Facebook पर बनाए रखने के Meta के मूल फ़ैसले को पलट दिया. हर पोस्ट से लोगों में फैलते गुस्से और बढ़ती हिंसा के दौरान हिंसा की आशंका और निकटता का जोखिम था.

3 इस बंडल में केस शामिल हैं

पलट जाना

FB-9IQK53AU

Facebook पर से जुड़ा केस

प्लैटफ़ॉर्म
Facebook
विषय
गलत जानकारी,धर्म,हिंसा
जगह
युनाइटेड किंगडम
Date
पर प्रकाशित 23 अप्रैल 2025
पलट जाना

FB-EAJQEE0E

Facebook पर से जुड़ा केस

प्लैटफ़ॉर्म
Facebook
विषय
गलत जानकारी,धर्म,हिंसा
जगह
युनाइटेड किंगडम
Date
पर प्रकाशित 23 अप्रैल 2025
पलट जाना

FB-93YJ4A6J

Facebook पर से जुड़ा केस

प्लैटफ़ॉर्म
Facebook
विषय
गलत जानकारी,धर्म,हिंसा
जगह
युनाइटेड किंगडम
Date
पर प्रकाशित 23 अप्रैल 2025

सारांश

2024 की गर्मियों में यूके में हुए दंगों के दौरान शेयर की गई अलग-अलग पोस्ट का रिव्यू करने के दौरान, बोर्ड ने उन पोस्ट को Facebook पर बनाए रखने के Meta के मूल फ़ैसले को पलट दिया. उनमें से हर पोस्ट से निकट भविष्य में नुकसान होने की आशंका थी. उन्हें हटा दिया जाना चाहिए था. कंटेंट को लोगों में फैल रहे गुस्से और बढ़ती हिंसा की अवधि में पोस्ट किया गया था, जिसे सोशल मीडिया पर गलत जानकारी और दुष्प्रचार ने और भड़काया. मुस्लिम विरोधी और अप्रवासी विरोधी भावनाएँ सड़कों तक आ गईं. Meta ने दंगों पर प्रतिक्रिया करते हुए संकट पॉलिसी प्रोटोकॉल (CPP) को एक्टिवेट किया और उसके बाद 6 अगस्त को यूके को उच्च जोखिम वाली लोकेशन माना. ये कार्रवाइयाँ काफ़ी देरी से की गई थीं. इस समय तक, कंटेंट के ये तीनों मामले पोस्ट किए जा चुके थे. बोर्ड इस बात से चिंतित है कि Meta ने संकट से जुड़े अपने उपाय बहुत धीमी गति से लागू किए. साथ ही यह नोट किया कि नुकसानदेह कंटेंट का फैलाव रोकने के लिए यह काम तुरंत किया जाना चाहिए था.

अतिरिक्त नोट: 7 जनवरी, 2025 को नए नाम वाली नफ़रत फैलाने वाले आचरण से जुड़ी पॉलिसी में Meta के पुनरीक्षण के बाद इन केसों के परिणाम में कोई बदलाव नहीं हुआ, जबकि बोर्ड ने उन नियमों के हिसाब से विचार किया जो पोस्ट करते समय लागू थे और चर्चा के समय नियमों के अपडेट पर भी गौर किया. Meta द्वारा जनवरी में जल्दबाज़ी में अनाउंस किए गए पॉलिसी और एन्फ़ोर्समेंट के व्यापक बदलावों के संबंध में, बोर्ड इस बात से चिंतित है कि Meta ने सार्वजनिक रूप से यह शेयर नहीं किया है कि बिज़नेस और मानवाधिकारों के संबंध में संयुक्त राष्ट्र के मार्गदर्शक सिद्धांतों के तहत अपनी प्रतिबद्धताओं के अनुसार उसने ये बदलाव करने से पहले कौन-सा मानवाधिकार सम्यक तत्परता आकलन किया है (अगर कोई है तो). Meta के लिए यह सुनिश्चित करना महत्वपूर्ण है कि मानवाधिकारों पर सभी प्रतिकूल प्रभावों को वैश्विक रूप से पहचाना जाए और उन्हें रोका जाए.

केस की जानकारी

पहले केस में, सिर्फ़ टेक्स्ट वाली पोस्ट को दंगों की शुरुआत में शेयर किया गया था और उसमें मस्जिदों को नष्ट करने और उन इमारतों को आग लगाने का आह्वान किया गया था जहाँ “अप्रवासी,” “आतंकवादी” और “बदमाश” रहते हैं. इस पोस्ट को 1,000 से ज़्यादा बार देखा गया.

दूसरे और तीसरे केसों में ऐसी फ़ोटो को रीपोस्ट किया गया था जो AI से जेनरेट की गई लगती हैं. यूनियन जैक वाली टी-शर्ट पहना एक भीमकाय व्यक्ति, डरावने तरीके से एक मुस्लिम व्यक्ति का पीछा कर रहा है. फ़ोटो पर मौजूद टेक्स्ट में एक विरोध प्रदर्शन के लिए लोगों को इकट्ठा होने का समय और स्थान बताया गया है. उसमें “EnoughIsEnough” हैशटैग का उपयोग किया गया है और साथ दिए कैप्शन में कहा गया है: “हम फिर से आ गए हैं.” इस पोस्ट को 1,000 से कम बार देखा गया. अन्य फ़ोटो में चार मुस्लिम व्यक्ति, संसद भवन के सामने ब्लॉन्ड बालों वाले एक रोते हुए छोटे बच्चे के पीछे दौड़ रहे हैं. एक व्यक्ति चाकू लहरा रहा है, जबकि बिग बेन के ऊपर से एक हवाई जहाज उड़ रहा है. इस फ़ोटो में एक प्रभावी सोशल मीडिया अकाउंट का लोगो था जिसे यूरोप में अप्रवासी विरोधी कमेंटरी, गलत जानकारी और दुष्प्रचार के लिए जाना जाता है. इसे 1,000 से ज़्यादा बार देखा गया.

तीनों को Facebook यूज़र्स द्वारा नफ़रत फैलाने वाली भाषा या हिंसा के लिए रिपोर्ट किया गया था. Meta ने सिर्फ़ अपने ऑटोमेटेड सिस्टम के रिव्यू के बाद तीनों पोस्ट को बनाए रखा. यूज़र्स द्वारा बोर्ड को अपील किए जाने और इन केसों को चुने जाने के बाद, कंटेंट का ह्यूमन रिव्यू किया गया और Meta ने सिर्फ़ पहले केस में शामिल टेक्स्ट वाली पोस्ट को हटाया. कंपनी ने संभावित रूप से AI से जेनरेट की गई दो फ़ोटो को बनाए रखने के मूल फ़ैसले को कायम रखा.

30 जुलाई से 7 अगस्त, 2024 के बीच, साउथपोर्ट में तीन लड़कियों की हत्या के बाद यूके में हिंसक दंगे शुरू हुए. चाकू से हुए इन हमलों के कुछ समय बाद, सोशल मीडिया पर गलत जानकारी और दुष्प्रचार फैला जिसमें कहा गया कि अपराधी एक मुस्लिम और शरण चाहने वाला एक व्यक्ति था.

मुख्य निष्कर्ष

बोर्ड ने पाया कि सिर्फ़ टेक्स्ट वाली पोस्ट और भीमकाय व्यक्ति की फ़ोटो वाली पोस्ट, हिंसा और उकसावे से जुड़ी पॉलिसी का उल्लंघन करती हैं. इस पॉलिसी के तहत किसी टार्गेट के खिलाफ़ बहुत गंभीर हिंसा या सुरक्षित विशिष्टताओं और आव्रजन स्टेटस के आधार पर किसी व्यक्ति या समूहों के खिलाफ़ हिंसा की धमकियों की परमिशन नहीं दी जाती. सिर्फ़ टेक्स्ट वाली पोस्ट में लोगों और संपत्ति के खिलाफ़ सामान्य धमकी या हिंसा का उकसावा था, साथ ही उसमें धर्म और आव्रजन स्टेटस के आधार पर टार्गेट की पहचान की गई थी. भीमकाय व्यक्ति की फ़ोटो, एक खास समय और जगह पर लोगों के लिए इकट्ठा होने और भेदभावपूर्ण हिंसा के कृत्य करने का स्पष्ट आह्वान थी. Meta का यह निष्कर्ष कि इस फ़ोटो, जिसमें एक आक्रामक पुरुष भागते हुए मुस्लिम पुरुष का पीछा कर रहा है और जिसमें “EnoughIsEnough” हैशटैग के साथ समय और जगह बताई गई है, में कोई टार्गेट या धमकी नहीं है, उसकी प्रामाणिकता को कमज़ोर करता है. इस कंटेंट को 4 अगस्त को शेयर किया गया था, जो सप्ताह भर चले दंगों के बीच का समय था. इस समय तक, इतना संदर्भ मौजूद था जिसे देखते हुए पोस्ट को हटा दिया जाना चाहिए था.

AI से बनाई गई चार मुस्लिम पुरुषों की फ़ोटो, जिसमें वे ब्लॉन्ड बालों वाले रोते हुए एक बच्चे के पीछे दौड़ रहे हैं, नफ़रत फैलाने वाले आचरण (पुराना नाम नफ़रत फैलाने वाली भाषा) से जुड़ी पॉलिसी के नियम का उल्लंघन करती है जिसमें लोगों पर उनकी सुरक्षित विशिष्टता के आधार पर हमला करना प्रतिबंधित है जिसमें गंभीर आपराधिकता के आरोप लगाकर हमले करना भी शामिल है. Meta ने इस पोस्ट को उस खास “मुस्लिम पुरुष या उन पुरुषों जिन्हें गलत ढंग से साउथपोर्ट में बच्चों पर छुरेबाज़ी के लिए दोषी माना गया” को रेफ़र करके विज़ुअल रूप में योग्य कथन मानते हुए इस पोस्ट की व्याख्या की. 7 जनवरी से पहले, Meta के आंतरिक मार्गदर्शन में कहा गया था कि ऐसे योग्य कथनों, जिनमें किसी ग्रुप के सभी सदस्यों को सामान्य रूप से अपराधी नहीं कहा गया हो, की परमिशन है. बोर्ड इस केस में नियम के Meta द्वारा उपयोग से असहमत है और बोर्ड ने कहा कि यह फ़ोटो कोई योग्य कथन नहीं है क्योंकि वह साउथपोस्ट में छुरेबाज़ी की घटना का किसी भी रूप में चित्रण नहीं करती. इसे लंदन (साउथपोर्ट नहीं) का बताया गया है, जिसमें चार पुरुष (एक नहीं) एक छोटे लड़के (तीन युवा लड़कियाँ नहीं) के पीछे दौड़ रहे हैं और एक हवाई जहाज बिग बेन की तरफ़ उड़ रहा है. इसमें 9/11 की घटना की ओर इशारा किया गया है और मुस्लिमों को ब्रिटेन के लिए खतरा बताया गया है.

तीन केस का रिव्यू करते समय, बोर्ड ने हिंसा और उकसावे और नफ़रत फैलाने वाले आचरण से जुड़ी पॉलिसीज़ के संबंध में स्पष्टता की समस्या पर ध्यान दिया, जो लोगों को दिखाई देने वाली भाषा और आंतरिक मार्गदर्शन के कारण मौजूद है. बोर्ड इस बारे में भी गंभीर रूप से चिंतित है कि नफ़रत फैलाने वाली और हिंसक फ़ोटो को Meta सही तरीके से मॉडरेट कर पाता है या नहीं. यह देखते हुए कि Meta के विशेषज्ञ, संभावित रूप से AI से जेनरेट की गई दोनों फ़ोटो में उल्लंघन को पहचान नहीं पाए, रिव्यूअर्स को अभी दिया गया मार्गदर्शन अत्यंत सूत्रात्मक लगता है जिसमें इस बात को अनदेखा किया गया है कि विज़ुअल इमेजरी किस तरह काम करती है और यह मार्गदर्शन पुराना हो गया है.

अंत में, बोर्ड ने नोट किया कि Meta के पास दंगों के दौरान ऐसे थर्ड-पार्टी फ़ैक्ट-चेकर मौजूद थे जिन्होंने उस कंटेंट का रिव्यू किया जिसमें साउथपोर्ट के अपराधी के गलत नाम दिए गए थे. उन्होंने उस कंटेंट को “झूठे” के रूप में लेबल किया जिससे उनकी विज़िबिलिटी कम हुई. अमेरिका में Meta अपने थर्ड पार्टी फ़ैक्ट चेकिंग सिस्टम को बदल रहा है, इसलिए बोर्ड ने सुझाव दिया है कि कंपनी, कम्युनिटी नोट्स का उपयोग करके अन्य प्लेटफ़ॉर्म के अनुभव का परीक्षण करे और उनकी प्रभावशीलता पर रिसर्च करे.

ओवरसाइट बोर्ड का फ़ैसला

बोर्ड ने तीन पोस्ट को प्लेटफ़ॉर्म पर बनाए रखने के Meta के मूल फ़ैसले को पलट दिया है.

बोर्ड ने Meta को ये सुझाव भी दिए हैं कि वह:

  • यह निर्दिष्ट करे कि जगहों और लोगों के खिलाफ़ हिंसा की सभी बहुत गंभीर धमकियों पर प्रतिबंध है.
  • इस बारे में स्पष्ट और मज़बूत शर्तें बनाए कि सुरक्षित विशिष्टता के आधार पर विज़ुअल रूप में किन बातों को गंभीर आपराधिकता के आरोप माना जा सकता है. उन्हें टेक्स्ट आधारित नफ़रत फैलाने वाले आचरण के मौजूद स्टैंडर्ड के अनुरूप होना चाहिए और उन्हें अपनाना चाहिए.
  • संकट पॉलिसी प्रोटोकॉल को सक्रिय करने की शर्त पर फिर से विचार करे, जिसमें उस मुख्य शर्त की पहचान करना शामिल है जिसका पूरा होना इस प्रोटोकॉल को तुरंत सक्रिय करने के लिए पर्याप्त हो.
  • संकट पॉलिसी प्रोटोकॉल के तहत, यह सुनिश्चित करे कि पॉलिसी के ऐसे संभावित उल्लंघन जिनसे निकट भविष्य में हिंसा की आशंका हो, इन-हाउस रिव्यूअर्स द्वारा रिव्यू किए जाने के लिए फ़्लैग किए जाएँ. इन्हें शुरुआती रिव्यू करने वाले बाहरी रिव्यूअर्स को समय से और संदर्भ के आधार पर मार्गदर्शन देना चाहिए.
  • थर्ड पार्टी फ़ैक्ट चेकिंग की तुलना में कम्युनिटी नोट्स की प्रभावशीलता का निरंतर आकलन करे, खास तौर पर उन स्थितियों के संबंध में जिनमें गलत जानकारी का त्वरित फैलाव, लोगों की सुरक्षा के लिए जोखिम उत्पन्न कर सकता हो.

*केस के सारांश से केस का ओवरव्यू मिलता है और भविष्य में लिए जाने वाले किसी फ़ैसले के लिए इसको आधार नहीं बनाया जा सकता है.

केस का पूरा फ़ैसला

1. केस की जानकारी और बैकग्राउंड

ओवरसाइट बोर्ड ने Facebook पर 30 जुलाई से 7 अगस्त, 2024 के दौरान यूके में दंगों के दौरान अलग-अलग यूज़र्स द्वारा पोस्ट किए गए कंटेंट के तीन केसों का रिव्यू किया.

साउथपोर्ट में 29 जुलाई को एक डांस वर्कशॉप के दौरान चाकूबाज़ी की घटना के बाद ये दंगे भड़के थे. चाकूबाज़ी में तीन युवतियों की जान चली गई थी और दस अन्य घायल हुए थे. एक 17 वर्षीय ब्रिटिश एक्सेल रुडाकुबाना को तुरंत गिरफ़्तार कर लिया गया था जिसे बाद में हमले का दोषी पाया गया. इसके बावजूद, हमले के बाद ऑनलाइन रूप से उसकी पहचान के बारे में गलत जानकारी और दुष्प्रचार, जिसमें एक झूठा नाम भी शामिल था, के फैलने के कारण लोगों में यह भ्रम फैला कि गिरफ़्तार युवक एक शरण चाहने वाला मुस्लिम है जो हाल ही में एक बोट से ब्रिटेन में आया है. एक ऐसी पोस्ट छह मिलियन से ज़्यादा बार शेयर की गई थी. ऑनलाइन अफ़वाहों को झूठी बताने वाले 30 जुलाई की दोपहर के पुलिस के बयान के बावजूद, आव्रजन विरोधी और मुस्लिम विरोधी प्रदर्शन 28 शहरों और कस्बों में हुए, जिनमें से कई दंगों में बदले. उनमें हज़ारों लोग शामिल हुए जिनमें मुस्लिम विरोधी और आव्रजन विरोधी समूह भी शामिल थे. शरणार्थी केंद्र और अप्रवासियों को रहने की जगह देने वाली होटलों सहित कई जगहों पर हमले हुए या उन्हें आग लगा दी गई. साथ ही लूटपाट और अन्य उपद्रवों की घटनाएँ भी हुईं. हिंसा में कई लोग घायल हुए जिनमें 100 से ज़्यादा पुलिस अधिकारी भी थे. अव्यवस्था को रोकने के लिए 1 अगस्त को साउथपोर्ट के नाबालिग हमलावर की पहचान छिपाने से जुड़ा न्यायिक आदेश हटा लिया गया, लेकिन इससे तुरंत कोई असर नहीं हुआ.

बोर्ड के रिव्यू में शामिल पहली पोस्ट को हत्याओं के दो दिन बाद शेयर किया गया था. इसने जारी दंगों में सहायता की. उसमें मस्जिदों को नष्ट करने और “अप्रवासियों,” “आतंकवादियों” और “बदमाशों” की रहने की जगहों को आग लगाने का आह्वान किया गया था. पोस्ट में यह स्वीकार किया गया था कि दंगों से निजी संपत्ति को नुकसान हुआ था और पुलिस अधिकारी घायल हुए थे, लेकिन यह तर्क दिया गया था कि यह हिंसा ज़रूरी थी ताकि प्राधिकारी उनकी बात सुनें और “ब्रिटेन में आने वाले सभी बदमाशों” पर रोक लगाएँ. पोस्ट में उन लोगों से उन “छोटी लड़कियों” की हत्या के बारे में सोचने के लिए कहा गया था जो दंगों से सहमत नहीं थे. यह भी कहा गया था कि अगर जनता कुछ नहीं करती है, तो ये लड़कियाँ “आखिरी पीड़ित” नहीं होंगी. पोस्ट को 1,000 से ज़्यादा बार देखा गया और उस पर 50 से कम कमेंट आए.

दूसरी पोस्ट को हमले के छह दिन बाद शेयर किया गया था और वह एक अन्य पोस्ट को फिर से शेयर करके बनाई गई थी. यह AI से जेनरेट की गई फ़ोटे लगती थी जिसमें एक भीमकाय, क्रोधित और आक्रामक श्वेत पुरुष यूनियन जैक (यूके का झंडा) की टी-शर्ट पहना है और डरावने ढंग से कई छोटे-छोटे, भागते हुए मुस्लिमों का पीछा कर रहा है. फ़ोटो में यह कैप्शन दिया गया था: “हम फिर से आ गए हैं.” ओवरले के रूप में दिए गए टेक्स्ट में 10 अगस्त को न्यूकैसल में विरोध प्रदर्शन करने की जगह और समय बताया गया था और “EnoughIsEnough” शामिल किया गया था. इस कंटेंट को 1,000 से कम बार देखा गया था.

तीसरी पोस्ट, जिसे हमले के दो दिन बाद शेयर किया गया था, भी संभावित रूप से AI से जेनरेट की गई फ़ोटो को फिर से पोस्ट करके बनाई गई लग रही थी. इसमें सफ़ेद कुर्ते पहने चार दाढ़ीधारी मुस्लिम पुरुष लंदन में संसद भवन के सामने और यूनियन जैक वाली टी-शर्ट पहने ब्लॉन्ड बालों वाले रोते हुए छोटे बच्चे के पीछे दौड़ रहे हैं. उनमें से एक के हाथ में चाकू है. एक हवाई जहाज बिग बेन की तरफ़ उड़ रहा है, जो 2001 में न्यूयॉर्क में 9/11 के आतंकवादी हमले का संकेत देता है. कैप्शन में “जागो” शब्द और एक प्रभावी सोशल मीडिया अकाउंट का लोगो शामिल किया गया था जिसे यूरोप में अप्रवासी विरोधी कमेंटरी, गलत जानकारी और दुष्प्रचार के लिए जाना जाता है. इस कंटेंट को 1,000 से ज़्यादा बार देखा गया और उस पर 50 से कम कमेंट आए.

Facebook के यूज़र्स ने तीनों पोस्ट की रिपोर्ट नफ़रत फैलाने वाली भाषा (नया नाम नफ़रत फैलाने वाले आचरण) या हिंसा और उकसावे से जुड़ी पॉलिसीज़ के उल्लंघन के कारण की. Meta के ऑटोमेटेड टूल्स ने अपने आकलन में तीनों पोस्ट को उल्लंघन नहीं करने वाली माना और उन्हें प्लेटफ़ॉर्म पर बनाए रखा. जब यूज़र्स ने Meta को अपील की, तब कंपनी के ऑटोमेटेड सिस्टम्स ने कंटेंट को बनाए रखने के फ़ैसलों को कन्फ़र्म किया. इन केसों को बोर्ड द्वारा चुने जाने के बाद ही पहली बार इन तीन पोस्ट का रिव्यू इंसानों द्वारा किया गया था. इसके बाद, Meta ने सिर्फ़ टेक्स्ट वाली पोस्ट में अपने फ़ैसले को पलटा और हिंसा और उकसावे से जुड़ी पॉलिसी का उल्लंघन करने के कारण उसे हटा दिया, लेकिन दो अन्य पोस्ट के बारे में उसने कन्फ़र्म किया गया कि उसके मूल फ़ैसले सही थे.

7 जनवरी, 2025 को, Meta ने अपनी नफ़रत फैलाने वाली भाषा से जुड़ी पॉलिसी में पुनरीक्षण अनाउंस किए और उसका नाम बदलकर नफ़रत फैलाने वाले आचरण से जुड़ी पॉलिसी कर दिया. ये बदलाव, इन केसों में प्रासंगिक होने के दायरे तक, सेक्शन 3 में बताए जाएँगे और सेक्शन 5 में उनका विश्लेषण किया जाएगा. बोर्ड ने नोट किया कि यह कंटेंट Meta के प्लेटफ़ॉर्म पर लगातार एक्सेस किए जाने लायक बना हुआ है और अपडेट की गई पॉलिसीज़, प्लेटफ़ॉर्म पर मौजूद सभी कंटेंट पर लागू होती हैं, इस बात पर ध्यान दिए बगैर कि उन्हें कब पोस्ट किया गया था. इसलिए बोर्ड ने पॉलिसी के उपयोग का आकलन उनके उस स्वरूप के हिसाब से किया जो पोस्ट किए जाने के समय था और लागू होने पर उसके पुनरीक्षित रूप का (यहूदी नरसंहार को नकारना (होलोकॉस्ट डिनायल) केस का नज़रिया भी देखें).

2.यूज़र सबमिशन

इन केसों में जिन यूज़र्स ने कंटेंट पोस्ट किया था, उनमें से किसी ने भी बोर्ड द्वारा बयान सबमिट करने के आमंत्रण का जवाब नहीं दिया.

जिन यूज़र्स ने रिपोर्ट की थी, उन्होंने बोर्ड को अपने बयान सबमिट किए और दावा किया कि पोस्ट से स्पष्ट रूप से लोगों को नस्लवादी विरोध प्रदर्शन में शामिल होना का उकसावा मिलता है जिससे अप्रवासियों और मुस्लिमों के खिलाफ़ हिंसा भड़केगी या दंक्षिणपंथी समर्थक दंगे जारी रखने के लिए प्रेरित होंगे. उनमें से एक यूज़र ने कहा कि वे एक अप्रवासी हैं और उस पोस्ट को लेकर डरे हुए हैं जिसकी रिपोर्ट उन्होंने की है.

3. Meta की कंटेंट पॉलिसी और सबमिशन

I. Meta की कंटेंट पॉलिसी

हिंसा और उकसावा

Meta की हिंसा और उकसावे से जुड़ी पॉलिसी बनाने के कारण में कहा गया है कि कंपनी “ऐसी भाषा वाले कंटेंट को हटा देती है जो हिंसा को आसान बनाती है या सार्वजनिक या निजी सुरक्षा को वास्तविक खतरा उत्पन्न करती है.” ऐसे कंटेंट में “लोगों की सुरक्षित विशिष्टताओं या आव्रजन स्टेटस के आधार पर किसी व्यक्ति या समूह को टार्गेट करने वाली हिंसक भाषा भी शामिल है.” इसमें यह भी बताया गया है कि Meta “सामान्य या जागरूकता फैलाने वाले कथनों और सार्वजनिक या व्यक्तिगत सुरक्षा के प्रामाणिक खतरे वाले कंटेंट में अंतर करने के लिए, भाषा और संदर्भ पर भी विचार करता है.”

इस पॉलिसी के अनुसार सभी लोगों को “हिंसा की ऐसी धमकियों, जिनसे किसी की जान जा सकती है (या अन्य तरह की बहुत गंभीर हिंसा हो सकती है)” और “हिंसा की ऐसी धमकियों, जिनसे गंभीर चोट पहुँच सकती है (कुछ हद तक गंभीर हिंसा)” से सुरक्षा दी गई है. मॉडरेटर्स के लिए Meta के आंतरिक मार्गदर्शन में कहा गया है कि यह सुरक्षा, उन जगहों पर हमलों के लिए भी प्राप्त है जिनसे किसी व्यक्ति की जान जा सकती है या उसे गंभीर चोट पहुँच सकती है. इसमें किसी जगह को आग लगाने या उस पर हमला करने के आह्वान शामिल हैं. पॉलिसी के अनुसार मॉडरेटर्स के यह कन्फ़र्म करना ज़रूरी नहीं है कि इमारक के भीतर लोग मौजूद हैं या नहीं.

पॉलिसी में हिंसा की धमकियों को “ऐसे कथनों या विज़ुअल के रूप में परिभाषित किया गया है जिनमें किसी टार्गेट पर हिंसा का इरादा, महत्वाकांक्षा या आह्वान होता है और धमकियों को कई तरह के कथनों में व्यक्त किया जा सकता है, जैसे कि इरादे का कथन, कार्रवाई का आह्वान, तरफ़दारी, आशा की अभिव्यक्ति, महत्वाकांक्षापूर्ण कथन और सशर्त कथन.”

नफ़रत फैलाने वाला आचरण (पहले नफ़रत फैलाने वाली भाषा)

Meta “नफ़रत फैलाने वाले आचरण” को उसी तरह परिभाषित करता है जैसे उसने “नफ़रत फैलाने वाली भाषा” को किया था. कंपनी ने इसे नस्ल, जातीयता, धार्मिक संबद्धता और राष्ट्रीय मूल सहित सुरक्षित विशिष्टताओं के आधार पर “लोगों पर सीधे हमले” के रूप में परिभाषित किया है. पॉलिसी के टियर 1 के तहत “शरणार्थियों, अप्रवासियों और शरण चाहने वाले लोगों” को सुरक्षा कायम रखी गई है. टियर 1 को Meta सबसे गंभीर हमले मानता है. हालाँकि, “आव्रजन पॉलिसीज़ पर कमेंटरी और उनकी आलोचना” को जगह देने के लिए उन्हें टियर 2 के हमलों से सुरक्षा नहीं दी गई है. पॉलिसी बनाने के कारण के अनुसार, ऐसा इसलिए किया गया है क्योंकि कभी-कभी लोग “राजनैतिक या धार्मिक विषयों पर चर्चा के संदर्भ में बहिष्कार का आह्वान करते हैं या अपमानजनक भाषा का उपयोग करते हैं, जैसा आव्रजन की चर्चा करते समय.” Meta ने स्पष्ट रूप से कहा है कि उसकी “पॉलिसीज़ को इस तरह की भाषा को जगह देने के लिए बनाया गया है.”

पॉलिसी का टियर 1, ऐसे सीधे हमलों को प्रतिबंधित करता है जिनमें लोगों को किसी सुरक्षित विशिष्टता या आव्रजन स्टेटस के आधार पर निशाना बनाया गया हो और उन पर “गंभीर अनैतिकता और आपराधिकता के आरोप” लगाए गए हों. इसमें उदाहरण के रूप में हिंसक अपराधियों (“आतंकवादी,” “हत्यारों”) का उदाहरण दिया गया है.

7 जनवरी से पहले, रिव्यूअर्स के लिए Meta के आंतरिक मार्गदर्शन में “व्यवहार से जुड़े योग्य कथनों” को परमिशन दी गई थी, जो इन्हें प्रतिबंधित सामान्यीकरणों से अलग करता है, जिनमें गंभीर आपराधिकता के आरोप लगाने वाले, व्यवहार से जुड़े अयोग्य कथन शामिल हैं. व्यवहार से जुड़े योग्य कथनों में ऐसी कार्रवाइयाँ शामिल हैं जो लोगों या समूहों ने अपनी सुरक्षित विशिष्टता या आव्रजन स्टेटस का उल्लेख करते हुए घटनाओं में भाग लेने के दौरान की हैं. प्रतिबंधित सामान्यीकरणों में किसी पूरे समूह के सभी या अधिकांश सदस्यों के लक्षणों की बात की जाती है (जैसे यह कहना कि वे “हत्यारे” हैं या वे “हत्या” करते हैं). 7 जनवरी से, रिव्यूअर्स के लिए Meta के मार्गदर्शन में अब व्यवहार से जुड़े कथनों पर प्रतिबंध नहीं है, जिसमें किसी संपूर्ण सुरक्षित विशिष्टता समूह या आव्रजन स्टेटस के आधार पर उनके खिलाफ़ उपयोग किए गए कथन शामिल हैं. इसका मतलब है कि कोई सुरक्षित विशिष्टता वाला समूह “हत्या” करता है, कहना व्यवहार से जुड़ा उल्लंघन नहीं करने वाला कथन होगा.

II. Meta के सबमिशन

सिर्फ़ टेक्स्ट वाली पोस्ट

Meta ने इस केस में अपना मूल फ़ैसला पलट दिया और हिंसा और उकसावे से जुड़ी पॉलिसी का उल्लंघन करने के कारण कंटेंट को हटा दिया. उसने ऐसा इसलिए किया क्योंकि उसमें लोगों को दंगे करने, “मस्जिदों को नष्ट करने,” और “उन इमारतों को नुकसान पहुँचाने” का आह्वान किया गया था जहाँ “अप्रवासी” और “आतंकवादी” रहते हैं. ये ऐसे “कथन हैं जो ऐसी किसी जगह के खिलाफ़ हिंसा का समर्थन करते हैं जहाँ किसी व्यक्ति की जान जा सकती है या उसे गंभीर चोट आ सकती है.”

भीमकाय पुरुष वाली पोस्ट

Meta ने पाया कि पोस्ट से हिंसा और उकसावे से जुड़ी पॉलिसी का उल्लंघन नहीं होता. भले ही इसमें किसी खास जगह पर लोगों को इकट्ठा होने का आह्वान किया गया था, लेकिन Meta के अनुसार इसमें लोगों या संपत्ति के खिलाफ़ हिंसा की धमकी शामिल नहीं थी. Meta ने इस बात पर ज़ोर दिया कि उसकी पॉलिसी, जिसमें “अभिव्यक्ति” की वैल्यू का ध्यान रखा गया है, में विरोध प्रदर्शन के संबंध में राजनैतिक बयानबाज़ी की सुरक्षा की जाती है. इसलिए, व्यापक उपद्रव के बावजूद, पोस्ट के उल्लंघन करने वाली होने के लिए धमकी या स्पष्ट टार्गेट होना ज़रूरी है.

चार मुस्लिम पुरुषों वाली पोस्ट

Meta ने पाया कि यह पोस्ट नफ़रत फैलाने वाले आचरण (पहले नफ़रत फैलाने वाली भाषा) से जुड़ी पॉलिसी का उल्लंघन नहीं करती. सभी या अधिकांश मुस्लिमों को हिंसक अपराधी बताते हुए उन पर हमले करने जैसे सामान्यीकरण उल्लंघन करने वाले होंगे, लेकिन “कुछ खास मुस्लिम लोगों को हिंसक अपराधी” कहना उल्लंघन करने की कैटेगरी में नहीं आएगा. Meta ने इस पोस्ट में शामिल फ़ोटो को उस खास “मुस्लिम पुरुष या उन पुरुषों जिन्हें गलत ढंग से साउथपोर्ट में बच्चों पर छुरेबाज़ी के लिए दोषी माना गया” को रेफ़र करने वाला माना, यह देखते हुए कि उस समय गलत जानकारी चर्चा में थी.

संकट से जुड़े उपाय

बोर्ड के सवालों के जवाब में, Meta ने बताया कि उसने अगस्त में संकट पॉलिसी प्रोटोकॉल (CPP) को सक्रिय कर दिया था और CPP सक्रिय होने के बाद पूरे यूके को 6-20 अगस्त के दौरान अस्थायी रूप से उच्च जोखिम वाली लोकेशन (THRL) घोषित किया. THRL एक ऐसा मैकेनिज़्म है जो Meta को अतिरिक्त सुरक्षा उपाय लागू करने की सुविधा देता है, जैसे उन लोकेशन पर हिंसा के उकसावों को रोकने के लिए पहले से सक्रिय निगरानी करने के लिए कंटेंट पर अतिरिक्त प्रतिबंध लगाना जिन्हें असली दुनिया में हुई घटनाओं के कारण उच्च जोखिम वाली लोकेशन माना गया है. उस दौरान, Meta ने यूके की किसी लोकेशन पर हथियार लाने या उच्च जोखिम वाली लोकेशन पर बलपूर्वक घुसने के सभी आह्वानों को हटा दिया. कंपनी ने इंटीग्रिटी प्रोडक्ट ऑपरेशन सेंटर (IPOC) सेट नहीं किया जिसे Meta एक ऐसा उपाय बताता है “जो पूरी कंपनी की कई टीमों, विषयवस्तु विशेषज्ञों और क्षमताओं को संभावित समस्याओं या ट्रेंड पर प्रतिक्रिया करने के लिए साथ लाता है.”

थर्ड-पार्टी फ़ैक्ट-चेकिंग

Meta ने दंगों के दौरान कंटेंट का रिव्यू करने और उसकी सटीकता को रेट करने के लिए थर्ड-पार्टी फ़ैक्ट-चेकर पर भरोसा किया. “कई कंटेंट ... जिनमें साउथपोर्ट के अपराधी का गलत नाम बताया गया था” के लिए और “गलत” के रूप में रेट किए गए कंटेंट के लिए, Meta ने उस कंटेंट को प्लेटफ़ॉर्म पर बनाए रखा लेकिन उसमें लेबल जोड़ दिए. उसने कंटेंट को सुझावों से भी हटा दिया और उसे अकाउंट को फ़ॉलो करने वाले यूज़र्स की फ़ीड में कंटेंट को डिमोट कर दिया. Meta ने कहा कि “कंटेंट के प्लेटफ़ॉर्म पर दिखाई देने के कुछ ही घंटों के भीतर” उसने ऐसे कंटेंट की विज़िबिलिटी कम कर दी. Meta ने अपनी पॉलिसी, ऑपरेशन और कानून लागू करने वाली आउटरीच टीमों के लोगों से एक आंतरिक कार्यसमूह भी बनाया ताकि स्थिति की निगरानी की जा सके और उसका जवाब दिया जा सके.

बोर्ड ने Meta से यूके में दंगों के दौरान लागू किए गए, संकट से जुड़े खास उपायों के संबंध में 13 सवाल पूछे जो इन विषयों से संबंधित थे: थर्ड पार्टी फ़ैक्ट-चेकर का रोल, नफ़रत फैलाने वाली भाषा से जुड़े उसके क्लासिफ़ायर की क्षमताओं की जानकारी, कंटेंट के Meta द्वारा विश्लेषण में दंगों के संदर्भ का उपयोग, क्या किसी पोस्ट को डिमोट किया गया था और ज़रूरत से ज़्यादा एन्फ़ोर्समेंट से स्वतंत्र अभिव्यक्ति और जानकारी की एक्सेस को जोखिम. Meta ने सभी सवालों के जवाब दिए.

4. पब्लिक कमेंट

ओवरसाइट बोर्ड को सबमिट करने की शर्तों को पूरा करने वाले नौ पब्लिक कमेंट मिले. पाँच कमेंट यूरोप से, तीन अमेरिका और कनाडा से और एक मध्य पूर्व और उत्तरी अफ़्रीका से सबमिट किए गए थे. चूँकि सभी पब्लिक कमेंट 7 जनवरी, 2025 से पहले आए थे, इसलिए उनमें से किसी भी कमेंट में उस दिन Meta की ओर से पॉलिसी में अनाउंस किए गए बदलावों के बारे में कोई उल्लेख नहीं था. प्रकाशन की सहमति के साथ सबमिट किए गए पब्लिक कमेंट पढ़ने के लिए यहाँ पर क्लिक करें.

सबमिशन में इन विषयों पर बात की गई थी: 2024 के यूके के दंगों में सोशल मीडिया का रोल, जिसमें गलत जानकारी के फैलाव और दंगे आयोजित करने और उनमें सहयोग करने में उसका रोल शामिल है; ऑनलाइन अप्रवासी विरोधी और मुस्लिम विरोधी भाषा और हिंसा के बीच लिंक; नफ़रत फैलाने वाली भाषा और इंसानों से कमतर दिखाने में फ़ोटो का उपयोग; ज़रूरत से ज़्यादा एन्फ़ोर्समेंट से अभिव्यक्ति की आज़ादी को जोखिम; और मॉडरेशन के ऐसे उपाय जिनमें कंटेंट को हटाया नहीं जाता.

5. ओवरसाइट बोर्ड का विश्लेषण

बोर्ड ने इस बात का परीक्षण करने के लिए इन केसों को चुना कि आव्रजन से जुड़ी चर्चाओं में Meta किस तरह अभिव्यक्ति की आज़ादी सुनिश्चित करता है और साथ ही किसी संकट के संदर्भ में अप्रवासियों और धार्मिक अल्पसंख्यकों के मानवाधिकारों का सम्मान भी करता है. यह केस बोर्ड की "संकट और संघर्ष की स्थिति" और "कमज़ोर समूहों के प्रति नफ़रत फैलाने वाली भाषा" से जुड़ी रणनीतिक प्राथमिकताओं के दायरे में आता है.

बोर्ड ने Meta की कंटेंट पॉलिसी, वैल्यू और मानवाधिकार से जुड़ी ज़िम्मेदारियाँ के संबंध में इन केस में दिए गए Meta के फ़ैसलों का विश्लेषण किया. बोर्ड ने यह भी आकलन किया कि कंटेंट गवर्नेंस को लेकर Meta के व्यापक दृष्टिकोण पर इन केसों का क्या असर पड़ेगा.

5.1 Meta की कंटेंट पॉलिसी का अनुपालन

I. कंटेंट से जुड़े नियम

सिर्फ़ टेक्स्ट वाली पोस्ट

बोर्ड ने पाया कि पोस्ट से Meta की हिंसा और उकसावे से जुड़ी पॉलिसी का उल्लंघन होता है. इस पॉलिसी के तहत किसी टार्गेट के खिलाफ़ बहुत गंभीर हिंसा या सुरक्षित विशिष्टताओं और आव्रजन स्टेटस के आधार पर लोगों या समूहों के खिलाफ़ हिंसा की धमकियाँ प्रतिबंधित हैं.

लोग अक्सर बढ़ा-चढ़ाकर या अगंभीर और मज़ाकिया तरीकों से हिंसक या धमकी भरी भाषा का ऑनलाइन उपयोग करते हैं, लेकिन भाषा और संदर्भ ही वह तरीका होता है जो अगंभीर कथनों को सार्वजनिक या निजी सुरक्षा को गंभीर धमकियों से अलग करता है. यह पोस्ट स्पष्ट रूप से लोगों को दंगे करने, “मस्जिदों को नष्ट करने,” और “उन इमारतों को नुकसान पहुँचाने” के लिए प्रेरित करती है जहाँ “अप्रवासी” और “आतंकवादी” रहते हैं. इससे Meta की हिंसा और उकसावे से जुड़ी पॉलिसी का दो तरह से उल्लंघन होता है: एक, लोगों और संपत्ति के लिए बहुत गंभीर हिंसा की सामान्य धमकी और उकसावा; दो, लोगों के धार्मिक और आव्रजन स्टेटस के आधार पर टार्गेट की पहचान. इस पोस्ट को अनौपचारिक या गैर-गंभीर कथन मानने का कोई कारण नहीं है. इसे 31 जुलाई को प्रकाशित किया गया था जब पूरे यूके में हिंसा फैल रही थी, उस घटना के एक दिन बाद जब एक ग्रुप ने एक मस्जिद पर ईंटें और पेट्रोल बम फेंके और पुलिस की कार को आग लगा दी जिसमें आठ अधिकारी घायल हो गए. बाद के हफ़्तों में इसी तरह की हिंसा पूरे देश में शुरू हो गई.

भीमकाय पुरुष वाली पोस्ट

बोर्ड ने पाया कि पोस्ट से Meta की हिंसा और उकसावे से जुड़ी पॉलिसी का उल्लंघन होता है. इस पॉलिसी के तहत लोगों या समूहों के खिलाफ़ सुरक्षित विशिष्टता के रूप में धर्म और उनके आव्रजन स्टेटस के आधार पर हिंसा की धमकियाँ प्रतिबंधित हैं.

बोर्ड ने नोट किया कि इस पोस्ट में ऐसे कोई लिखित शब्द नहीं थे जो लोगों को हिंसा में शामिल होने के सीधे और स्पष्ट आह्वान हों. हालाँकि, यह कंटेंट बताता है कि किस तरह फ़ोटो को हिंसा के कम प्रत्यक्ष लिखित संदर्भों के साथ मिलाना भी उकसावे का एक असंदिग्ध रूप हो सकता है.

फ़ोटो के टेक्स्ट ओवरले में 10 अगस्त को न्यूकैसल के रूप में लोगों के इकट्ठा होने के लिए तारीख, समय और लोकेशन बताई गई थी. इसे देश में दंगे शुरू होने के कई दिनों बाद पोस्ट किया गया था जिनमें मुस्लिमों और अप्रवासियों को टार्गेट किया गया था और अन्य कार्रवाइयों के अलावा लोगों ने एक ऐसी होटल पर हमला किया जिसमें शरण चाहने वाले लोग ठहरे हुए थे, एक लाइब्रेरी और एक कम्युनिटी सेंटर को आग के हवाले कर दिया और पुलिस अधिकारियों पर बोतलें और कैन फेंकीं. इस्लामी लिबाज़ में एक छोटे भूरे पुरुष के पीछे भाग रहे एक भीमकाय श्वेत पुरुष की फ़ोटो के साथ “हम फिर से आ गए हैं” कैप्शन, एक खास समय और जगह पर भेदभावपूर्ण हिंसा और डर के उन कामों को जारी रखने का स्पष्ट आह्वान था. “Enough Is Enough” (बहुत हुआ) कथन को अलग से, बिना संदर्भ के देखे जाने पर यह आव्रजन के बारे में गैर-हिंसक राजनैतिक कथन हो सकता है, लेकिन इसका उपयोग पिछले दंगों को आयोजित करने और लोगों को उससे जोड़ने के लिए हैशटैग के रूप में उपयोग किया गया है.

बोर्ड ने पाया कि इस पोस्ट के सभी एलिमेंट को मिलाने पर यह कंटेंट पॉलिसी का स्पष्ट उल्लंघन लगता है. Meta का यह निष्कर्ष की फ़ोटो में कोई टार्गेट या धमकी नहीं है, उसकी विश्वसनीयता पर प्रश्नचिह्न लगाता है और ये सवाल खड़े करता है कि कंपनी को संकट पॉलिसी प्रोटोकॉल एक्टिवेट करने में इतना समय क्यों लगा. अगर इस पोस्ट को ह्यूमन रिव्यू में प्राथमिकता दी जाती और व्याख्या से जुड़ा उचित मार्गदर्शन दिया जाता, तो इस पोस्ट को शेयर किए जाने के समय तक, यह सुनिश्चित करने के लिए कि इस पोस्ट में उकसाने वाले उल्लंघनकारी एलिमेंट को पहचान लिया जाए, इस बारे में पर्याप्त संदर्भ मौजूद था दंगों से जुड़ी जानकारी को किस तरह ऑनलाइन फैलाया जा रहा है.

चार मुस्लिम पुरुषों वाली पोस्ट

बोर्ड ने पाया कि तीसरे केस में शामिल कंटेंट, किसी सुरक्षित विशिष्टता वाले समूह के खिलाफ़ गंभीर आपराधिकता के आरोपों पर Meta की नफ़रत फैलाने वाले आचरण से जुड़ी पॉलिसी के प्रतिबंध का उल्लंघन करता है. 7 जनवरी को, पॉलिसी में हुए बदलावों से इस आकलन पर कोई असर नहीं पड़ा.

इस केस में, ब्लॉन्ड बालों वाले रोते हुए एक छोटे बच्चे के पीछे भाग रहे मुस्लिम पुरुष के विज़ुअल और साथ में आतंकवादी की फ़ोटो से मुस्लिमों के बारे में यह सामान्य धारणा बनती है कि वे हिंसक अपराधी और आतंकवादी होते हैं और वे ब्रिटिश लोगों, खास तौर पर बच्चों, के लिए खतरा हैं.

यह फ़ोटो, लोगों को इंसानों से कमतर दिखाने का एक स्पष्ट उदाहरण है जिसमें मुस्लिम विरोधी स्टीरियोटाइप का उपयोग करके अप्रवासी विरोधी भावनाओं को अपने पक्ष में करने की कोशिश की गई है. इसके एलिमेंट के ज़रिए, यह पोस्ट मुस्लिमों को देश के लिए एक सामूहिक खतरा बताती है. पोस्ट में मुस्लिमों को डरावना बताया गया है और उनके धर्म के आधार पर उनके समूह को गलत ढंग से आपराधिकता और हिंसा से जोड़ा गया है. मुस्लिमों को विज़ुअल रूप से आधुनिक इतिहास की सबसे कुख्यात आतंकवादी घटना से जोड़कर, फ़ोटो में गलत ढंग से यह बताया गया है कि सभी मुस्लिम आतंकवादी होते हैं और वे ब्रिटेन के लिए खतरा हैं.

बोर्ड, Meta के इस आकलन से असहमत है कि फ़ोटो एक “योग्य कथन” थी, यानि चाकू थामे मुस्लिम का चित्रण, व्यापक रूप से मुस्लिमों के बजाय साउथपोर्ट में फैलाए गए अपराधी के संदर्भ में था. बोर्ड के लिए, भले ही कंटेंट को साउथपोर्ट की चाकूबाज़ी के बाद सार्वजनिक व्यवस्था के संदर्भ में पोस्ट किया गया था और उसमें उनसे जुड़ी उग्र भावनाओं का फ़ायदा उठाने की कोशिश की गई थी, वह विज़ुअल रूप से उन घटनाओं का प्रतिनिधित्व नहीं करता. फ़ोटो को पोस्ट किए जाने के समय, साउपोर्ट के हमलावर के बारे में यह जानकारी थी कि वह अकेला है और मुस्लिम नहीं है, हमले में तीन लड़कियाँ शिकार हुई हैं और उनमें कोई छोटा लड़का नहीं है. साथ ही हमलों का लंदन या 9/11 के आतंकवादी हमलों से कोई संबंध नहीं है. यह अनुमान लगाना गलत होगा कि चार मुस्लिम पुरुषों का चित्रण उस अकेले हमलावर का संदर्भ हो सकता है. इसके अलावा, भले ही कंटेंट में अकेले मुस्लिम को दिखाया गया था, नफ़रत फैलाने वाली भाषा को जगह देने के लिए मोटे तौर पर मुस्लिम विरोधी सोच के आधार पर दुष्प्रचार शुरू करने के लिए यह एक बेतुका तर्क होगा.

II. एन्फ़ोर्समेंट एक्शन

दो केसों में Meta की हिंसा और उकसावे और नफ़रत फैलाने वाले आचरण से जुड़ी पॉलिसी का फ़ोटो आधारित उल्लंघन शामिल था और उनसे ये चिंताएँ सामने आती हैं कि टेक्स्ट के बजाय फ़ोटो पर आधारित कंटेंट के मामले में Meta किस तरह नुकसानदेह कंटेंट को मॉडरेट करता है. बोर्ड ने इसी तरह की चिंताएँ पहले ट्रांसजेंडर लोगों को टार्गेट करने के लिए पोलिश भाषा में की गई पोस्ट, प्लेनेट ऑफ़ ऐप्स जातिवाद, नफ़रत फैलाने वाले मीम्स का वीडियो मोंटाज, मीडिया षडयंत्र कार्टून और क्निन कार्टून केसों में भी जाहिर की थीं. यह चिंता सिर्फ़ इन्हीं केसों में सामने आई है क्योंकि उनसे पता चलता है कि नए AI टूल्स के डेवलपमेंट से नफ़रत फैलाने वाली विज़ुअल रूप से उत्तेजक भाषा और हिंसा को उकसावा देने वाला कंटेंट बनाने में आने वाली रुकावटें कितनी कम हो गई हैं. अपने आप जेनरेट की जा रही फ़ोटो में यह नहीं बदलेगा कि उससे उल्लंघन होता है या नहीं, लेकिन नए AI टूल से इस कंटेंट का फैलाव काफ़ी हद तक बढ़ सकता है. इसके कारण Meta को यह सुनिश्चित करने की ज़रूरत है कि उसके ऑटोमेटेड टूल्स को फ़ोटो में उल्लंघन का पता लगाने की बेहतर ट्रेनिंग दी गई है और वह तब तक ऐसे कंटेंट के ह्यूमन रिव्यू को प्राथमिकता दे जब तक कि ऑटोमेटेड रिव्यू ज़्यादा भरोसे लायक नहीं बन जाता.

बोर्ड इस बात से चिंतित है कि Meta ने बोर्ड के पुराने सुझावों के जवाब में बनाए गए अपने संकट पॉलिसी प्रोटोकॉल को एक्टिवेट करने में काफ़ी देर लगाई. कंपनी ने यूके को उच्च जोखिम वाली अस्थायी लोकेशन घोषित करने में लगभग पूरे हफ़्ते का समय लिया. इस उपाय के भाग के रूप में, Meta कुछ खास लोकेशन पर हथियार लाने या जबरन घुसने के आह्वानों पर अस्थायी रूप से प्रतिबंध लगाता है.

बोर्ड यह मानता है कि अगर संकट पॉलिसी प्रोटोकॉल को नाज़ुक समय में और हमले के बाद के दिनों में तुरंत लागू किया जाता, तो वह ज़्यादा असरदार होता, जब हमलावर के बारे में गलत जानकारी तेज़ी से ऑनलाइन फैल रही थी और सोशल मीडिया का उपयोग अप्रवासी विरोधी, नस्लीय और मुस्लिम विरोधी भावना के आधार पर हिंसा आयोजित करने और उसमें सहयोग करने के लिए किया जा रहा था.

अतिरिक्त हस्तक्षेपों से दंगों से जुड़े कंटेंट के तेज़ी से और ज़्यादा सटीक मॉडरेशन में मदद मिल सकती थी. इससे नुकसानदेह कंटेंट का फैलाव रुकता और नुकसान के बढ़ने का जोखिम संभावित रूप से कम होता. ऑपरेट करने से संबंधित टूल्स को संभावित रूप से उल्लंघन करने वाले कंटेंट को पहचानने और रिव्यू करने के लिए लागू किया जा सकता था, जो प्लेटफ़ॉर्म पर अपनी ओर से कुछ खास कीवर्ड या हैशटैग सर्च करता और विशेषज्ञ क्षेत्रीय टीमों को उसके लिए असाइन करता. ये टीमें विज़ुअल रूपों सहित नफ़रत फैलाने वाली भाषा और उकसावे से जुड़े कंटेंट का बड़े पैमाने पर शुरुआती रिव्यू करने वाले रिव्यूअर्स को अतिरिक्त संदर्भ और मार्गदर्शन दे सकती थीं.

बोर्ड ने इस बात पर ज़ोर दिया कि संकट से संबंधित उपायों को एक्टिवेट करने के फ़ैसले जल्दी से जल्दी लिए जाने चाहिए. ऐसा करने के लिए, कंपनी को ऐसी मुख्य शर्तें तय करनी चाहिए जिनके एक साथ या अलग-अलग पूरे होने पर संकट पॉलिसी प्रोटोकॉल का तुरंत एक्टिवेशन ट्रिगर हो जाए. इसके अलावा, संकट के पूरे समय के दौरान यह सुनिश्चित करने के लिए यह आकलन किया जाना चाहिए कि किए गए उपाय उचित, प्रभावी और उभरते हुए जोखिमों के अनुसार हैं.

5.2 Meta की मानवाधिकारों से जुड़ी ज़िम्मेदारियों का अनुपालन

बोर्ड ने पाया कि तीनों पोस्ट का निष्कासन, जो Meta की कंटेंट पॉलिसीज़ की उचित व्याख्या के अनुसार ज़रूरी था, Meta की मानवाधिकार से जुड़ी ज़िम्मेदारियों के भी अनुरूप है.

अभिव्यक्ति की आज़ादी (आर्टिकल 19 ICCPR)

नागरिक और राजनैतिक अधिकारों पर अंतरराष्ट्रीय प्रतिज्ञापत्र (ICCPR) का अनुच्छेद 19, अभिव्यक्ति की व्यापक सुरक्षा प्रदान करता है, जिसमें राजनैतिक, सार्वजनिक मामलों और मानवाधिकारों से जुड़ी राय की सुरक्षा शामिल है (सामान्य कमेंट सं. 34, पैरा. 11-12). जहाँ राज्य, अभिव्यक्ति पर प्रतिबंध लगाता है, वहाँ प्रतिबंधों को वैधानिकता, वैधानिक लक्ष्य और आवश्यकता तथा आनुपातिकता की शर्तों को पूरा करना चाहिए (अनुच्छेद 19, पैरा. 3, ICCPR). इन आवश्यकताओं को अक्सर “तीन भागों वाला परीक्षण” कहा जाता है.

बोर्ड इस फ़्रेमवर्क का उपयोग बिज़नेस और मानवाधिकारों से जुड़े संयुक्त राष्ट्र संघ के मार्गदर्शक सिद्धांतों (UNGP) के अनुरूप Meta की मानवाधिकार ज़िम्मेदारियों को समझने के लिए करता है, जिसके लिए Meta ने खुद अपनी कॉर्पोरेट मानवाधिकार पॉलिसी में प्रतिबद्धता जताई है. बोर्ड ऐसा इसलिए करता है कि वह रिव्यू के लिए आए कंटेंट से जुड़े अलग-अलग फ़ैसले ले सके और यह समझ सके कि कंटेंट मॉडरेशन से जुड़ा Meta का व्यापक दृष्टिकोण क्या है. UNGP के सिद्धांत 13 के अनुसार, कंपनियों को “अपनी गतिविधियों से मानवाधिकारों पर प्रतिकूल प्रभाव पड़ने का कारण बनने या उसमें योगदान देने से बचना चाहिए” और “मानवाधिकारों पर पड़ने वाले ऐसे प्रतिकूल प्रभावों को रोकना या कम करना चाहिए जो उनके कामकाज, प्रोडक्ट या सेवाओं से सीधे संबंधित होते हैं.” जैसा कि अभिव्यक्ति की आज़ादी के बारे में संयुक्त राष्ट्र के खास रैपर्टर में कहा गया है कि भले ही “कंपनियों का सरकारों के प्रति दायित्व नहीं है, लेकिन उनका प्रभाव इस तरह का है जो उनके लिए अपने यूज़र की सुरक्षा के बारे में इस तरह के सवालों का मूल्यांकन करना ज़रूरी बनाता है” (A/74/486, पैरा. 41). साथ ही, जब कंपनी के नियम अंतरराष्ट्रीय स्टैंडर्ड से अलग होते हैं, तब कंपनी को पॉलिसी के अंतर के बारे में अग्रिम रूप से कारणों सहित व्याख्या देनी चाहिए (पूर्वोक्त, पैरा 48 पर).

I. वैधानिकता (नियमों की स्पष्टता और सुलभता)

वैधानिकता के सिद्धांत के लिए यह ज़रूरी है कि अभिव्यक्ति को सीमित करने वाले नियमों को एक्सेस किया जा सकता हो और वे स्पष्ट हों. उन्हें पर्याप्त सटीकता के साथ बनाया गया हो ताकि लोग अपने व्यवहार को उसके अनुसार बदल सकें (सामान्य कमेंट सं. 34, पैरा. 25). इसके अलावा, ये नियम “उन लोगों को अभिव्यक्ति की आज़ादी पर प्रतिबंध लगाने के निरंकुश अधिकार नहीं दे सकते, जिनके पास इन नियमों को लागू करने की ज़िम्मेदारी है” और नियमों में “उन लोगों के लिए पर्याप्त मार्गदर्शन भी होना ज़रूरी है जिन पर इन्हें लागू करने की ज़िम्मेदारी है ताकि वे यह पता लगा सकें कि किस तरह की अभिव्यक्ति को उचित रूप से प्रतिबंधित किया गया है और किसे नहीं,” (पूर्वोक्त). अभिव्यक्ति की आज़ादी पर संयुक्त राष्ट्र संघ के विशेष रैपर्टर ने कहा है कि ऑनलाइन अभिव्यक्ति की निगरानी करने के मामले में निजी संस्थानों पर लागू होने वाले नियम स्पष्ट और विशिष्ट होने चाहिए (A/HRC/38/35, पैरा. 46). Meta के प्लेटफ़ॉर्म का उपयोग करने वाले लोगों के लिए ये नियम एक्सेस करने और समझने लायक होने चाहिए और उनके एन्फ़ोर्समेंट के संबंध में कंटेंट रिव्यूअर्स को स्पष्ट मार्गदर्शन दिया जाना चाहिए.

बोर्ड ने पाया कि यूज़र्स को यह स्पष्ट नहीं है कि Meta की हिंसा और उकसावे से जुड़ी पॉलिसी में लोगों और जगहों के खिलाफ़ धमकियों को प्रतिबंधित किया गया है. बोर्ड ने यह नोट किया कि यूके के दंगों के संदर्भ में कई जगहों को इसलिए टार्गेट किया गया था क्योंकि उनका संबंध मुस्लिमों, शरण चाहने वालों और अप्रवासियों से था.

बोर्ड ने पाया कि “हिंसक अपराधियों (आतंकवादियों, हत्यारों सहित लेकिन उन तक सीमित नहीं)” से जुड़े आरोपों पर नफ़रत फैलाने वाले आचरण से जुड़ा प्रतिबंध पर्याप्त रूप से स्पष्ट है, जैसा कि चार मुस्लिमों से जुड़ी पोस्ट पर लागू किया गया है. हालाँकि, किसी पूरे समूह के स्वाभाविक गुणों के बारे में प्रतिबंधित सामान्यीकरणों को व्यवहार से जुड़े अनुमति प्राप्त कथनों, जो शायद पूरे ग्रुप पर लागू न हों (जैसे किसी ग्रुप को “आतंकवादी” या “हत्यारा” कहना बनाम यह कहना कि वे “हत्या” करते हैं), से अलग करने की Meta की कोशिश से व्यापक भ्रम की स्थिति बनती है. संदर्भ के आधार पर दोनों अमानवीय सामान्यीकरण हो सकते हैं और अगर उनके लिए एन्फ़ोर्समेंट में अंतर होता है, तो उससे यह संदेश जा सकता है कि कंपनी अपनी इच्छा से फ़ैसले करती है.

II. वैधानिक लक्ष्य

अभिव्यक्ति की आज़ादी पर लगाए जाने वाले किसी भी प्रतिबंध में ICCPR के किसी एक कानूनी लक्ष्य को पूरा किया जाना चाहिए, जिसमें “अन्य लोगों के अधिकार” और “सार्वजनिक व्यवस्था की सुरक्षा” शामिल हैं (आर्टिकल 19, पैरा. 3, ICCPR). बोर्ड ने पहले कहा था कि Meta की हिंसा और उकसावे से जुड़ी पॉलिसी, सार्वजनिक सुरक्षा और दूसरों के अधिकारों की सुरक्षा के वैधानिक लक्ष्य की पूर्ति करती है, जिसमें खास तौर पर जीवन का अधिकार शामिल है (ईरानी महिला से सड़क पर हुज्जत और टिग्रे कम्युनिकेशन अफ़ेयर्स ब्यूरो देखें). बोर्ड ने पहले यह भी कहा था कि Meta की नफ़रत फैलाने वाली भाषा (नया नाम नफ़रत फैलाने वाला आचरण) से जुड़ी पॉलिसी का लक्ष्य समानता और गैर-भेदभाव के अधिकार की रक्षा करना है, जो अंतरराष्ट्रीय मानवाधिकार स्टैंडर्ड द्वारा मान्यता प्राप्त वैधानिक लक्ष्य है (उदाहरण के लिए क्निन कार्टून और म्यांमार बॉट देखें). यह नफ़रत फैलाने वाले आचरण से जुड़ी पॉलिसी के वैधानिक लक्ष्य का निर्माण करता है.

III. आवश्यकता और आनुपातिकता

ICCPR के आर्टिकल 19(3) के तहत, आवश्यकता और आनुपातिकता के सिद्धांत के अनुसार यह ज़रूरी है कि अभिव्यक्ति की स्वतंत्रता पर लगाए जाने वाले प्रतिबंध “उनके सुरक्षात्मक कार्य को सही तरीके से पूरा करने वाले होने चाहिए; उनसे उन लोगों के अधिकारों के साथ कम से कम हस्तक्षेप होना चाहिए, जिन अधिकारों से उन्हें सुरक्षात्मक कार्यों का लाभ मिल सकता है; उन हितों के अनुसार सही अनुपात में होने चाहिए, जिनकी सुरक्षा की जानी है” (सामान्य कमेंट सं. 34, पैरा. 34). अभिव्यक्ति की आज़ादी पर विशेष रैपर्टर में यह भी कहा गया है कि सोशल मीडिया पर “नफ़रत फैलाने वाली अभिव्यक्ति का समाधान करने वाला पैमाना और जटिलता, दीर्घकालिक चुनौतियाँ प्रस्तुत करते हैं” (A/HRC/38/35, पैरा. 28). हालाँकि, विशेष रैपर्टर के अनुसार, कंपनियों को “सभी कंटेंट एक्शन की आवश्यकता और अनुपातिकता बतानी चाहिए (जैसे हटाना या अकाउंट सस्पेंड करना).” कंपनियों को “यूज़र के अभिव्यक्ति की आज़ादी के उनके अधिकार से जुड़े एक ही तरह के सवालों का आकलन करना होगा” (पूर्वोक्त पैरा. 41).

अभिव्यक्ति की वैल्यू तब खास तौर पर ज़्यादा होती है जब सार्वजनिक चिंता के विषयों की चर्चा की जाती है और राजनैतिक बातचीत और सार्वजनिक मामलों पर टीका-टिप्पणी के आकलन में स्वतंत्र अभिव्यक्ति की आज़ादी का अधिकार सर्वोपरि होता है. लोगों को सभी तरह के सुझाव और राय माँगने, पाने और देने का अधिकार है, जिनमें वे शामिल हैं जो विवादास्पद या काफ़ी आपत्तिजनक हो सकते हैं (सामान्य कमेंट सं. 34, पैरा. 11). डेमोग्राफ़िक बदलावों पर राजनेता के कमेंट फ़ैसले में, बोर्ड ने पाया कि विवादास्पद रहते हुए भी आव्रजन पर इस राय की अभिव्यक्ति में कमज़ोर समूहों को सीधे मनुष्यों से हीन नहीं बताया गया था या उसमें नफ़रत फैलाने वाली भाषा का उपयोग नहीं किया गया था या हिंसा का आह्वान नहीं किया गया था. हालाँकि, जब ऐसी शर्तें पूरी होती हैं, तब कंटेंट को हटाना उचित हो सकता है (“यूरोपियन यूनियन की आव्रजन पॉलिसी और अप्रवासियों की आलोचना” फ़ैसला भी देखें).

बोर्ड ने पाया कि तीनों पोस्ट को Meta की पॉलिसीज़ के तहत हटा दिया जाना चाहिए था और उन्हें हटाना रबात एक्शन प्लान में बताए गए छह कारकों पर विचार करते हुए आवश्यक और आनुपातिक है ( रबात एक्शन प्लान, OHCHR, A/HRC/22/17/Add.4, 2013). वे कारक हैं: सामाजिक और राजनैतिक संदर्भ; वक्ता का स्टेटस; किसी टार्गेट ग्रुप के खिलाफ़ कार्रवाई करने के लिए लोगों को उकसाने का इरादा; अभिव्यक्ति का कंटेंट और रूप; फैलाव का दायरा; और नुकसान की आशंका और निकटता.

  • संदर्भ: जारी दंगे ज़्यादा हिंसक होते रहे और उनमें खास ग्रुप्स को टार्गेट किया गया था. दंगों को सोशल मीडिया पर वायरल हुए दुष्प्रचार से बढ़ावा मिला जिनमें से कई पोस्ट प्रभावशाली अकाउंट द्वारा की गई थीं (द इंस्टीट्यूट फ़ॉर स्ट्रेटेजिक डायलॉग द्वारा किया गया पब्लिक कमेंट भी देखें, PC-30832). इनमें से कुछ अकाउंट, दक्षिणपंथी ग्रुप्स और लोगों से लिंक थे. उन्होंने ऑनलाइन एक्टिविटी में बढ़ोतरी का उपयोग, साउथपोर्ट में मस्जिद के बाहर मुस्लिम विरोधी प्रदर्शन आयोजित करने और लोगों को बुलाने के लिए किया. वे प्रदर्शन हिंसक हुए. ऐसा बाद के कई अन्य प्रदर्शनों में भी हुआ, जिनमें संदरलैंड, रॉदरहैम और मैनचेस्टर के प्रदर्शन शामिल थे.
  • कंटेंट और रूप: जैसा कि ऊपर बताया गया है, तीनों पोस्ट के कंटेंट, चाहे वह लिखित रूप में हो या विज़ुअल, को स्पष्ट रूप से लोगों को दंगों में प्रत्यक्ष रूप से या हिंसक दंगों के बीच मुस्लिमों और अप्रवासियों के खिलाफ़ अमानवीय और नफ़रत फैलाने वाली भाषा का उपयोग करके शामिल होने के लिए उकसाने वाला माना जाएगा.
  • वक्ता का स्टेटस, इरादा और दायरा: गंभीर लोक अव्यवस्था के संदर्भ में, हिंसा के कुछ खास कामों के लिए उकसाने वाली ऐसी पोस्ट भी वायरल हो सकती है और बड़ा नुकसान कर सकती हैं जो प्रभावशाली हस्तियों द्वारा नहीं की गई हैं. एक बच्चे के पीछे चार मुस्लिम पुरुषों को दौड़ते हुए दिखाने वाले तीसरे कंटेंट के केस में, एक प्रमुख सोशल मीडिया अकाउंट का लोगो भी दिखाया गया था. दिसंबर 2024 में Radio Free Europe ने एक जाँच डॉक्यूमेंट प्रकाशित किया जिसमें उन्होंने अप्रवासियों को टार्गेट करने वाली गलत जानकारी के फैलाव में अकाउंट के पैटर्न और अकाउंट के मालिकाना हक को पहचाने जाने से रोकने के लिए अकाउंट द्वारा किए गए उपाय शामिल किए.
  • हिंसा, भेदभाव और दुश्मनी होने की आशंका और निकटता: इस अवधि के दौरान और यह देखते हुए कि हर पोस्ट में मुस्लिमों और अप्रवासियों के खिलाफ़ हिंसा का सीधा आह्वान किया गया था या उसके लिए प्रेरित किया गया था, इस बात की भारी आशंका थी कि नफ़रत फैलाने वाली एक पोस्ट से अशांति और हिंसा की घटनाएँ बढ़ जाएँ. इन पोस्ट को शेयर किए जाने के संदर्भ को देखते हुए, कम कठोर उपाय हिंसा की आशंका और निकटता का समाधान करने के लिए काफ़ी नहीं होते. इसलिए Meta की पॉलिसी के तहत उन्हें हटाना उनके वैधानिक लक्ष्य के लिए आवश्यक और आनुपातिक था.

एन्फ़ोर्समेंट

यह चिंता की बात है कि बोर्ड द्वारा इन केसों को चुने जाने के बाद भी, Meta इस बात पर कायम रहा कि AI द्वारा जेनरेट की गई फ़ोटो वाली पोस्ट सहित दो पोस्ट उल्लंघन नहीं करतीं. ऐसा लगता है कि मॉडरेटर्स (और Meta की पॉलिसी टीमों को भी) एक चेकलिस्ट दी गई है जिसका वे शाब्दिक रूप से पालन करती हैं और अगर उनमें से एक भी एलिमेंट मौजूद होता है, तो उसे उल्लंघन करने वाला कंटेंट मान लिया जाता है. ऐसा लगता है कि एक जैसा एन्फ़ोर्समेंट करने के लिए वे ऐसा करते हैं. लेकिन यह मार्गदर्शन, जिसे मुख्य रूप से टेक्स्ट वाली पोस्ट को ध्यान में रखकर लिखा गया है, इस बात की अनदेखी करता है कि विज़ुअल इमेजरी किस तरह काम करती है. इस कारण से इन नियमों का एक जैसा एन्फ़ोर्समेंट नहीं होता. जब किसी खास सुरक्षित विशिष्टता वाले ग्रुप पर स्वाभाविक रूप से अपराधी होने का आरोप लगाया जाता है, जैसा कि इन केसों में हुआ, तो ऐसे कंटेंट से जुड़े नियम Meta के लिए खास चुनौती प्रस्तुत करते हैं. यह देखते हुए कि सोशल मीडिया पर कितना कंटेंट मुख्य रूप से फ़ोटो और वीडियो आधारित होता है, रिव्यूअर्स के लिए मौजूदा मार्गदर्शन खास तौर पर पुराना लगता है.

Meta के मॉडरेशन में एकरूपता एक महत्वपूर्ण मुद्दा हो सकता है, लेकिन इसमें संदर्भ की सटीकता पर विचार करने की अनदेखी नहीं होनी चाहिए, खास तौर पर नफ़रत फैलाने वाली भाषा और उकसावे के विज़ुअल चित्रण में. यूके के दंगों की तरह, तेज़ी से बढ़ने वाले संकट के दौरान, जान और संपत्ति के नुकसान का वास्तविक जोखिम एक बहुत बड़ी कीमत है. सटीकता में संदर्भ पर विचार करने और विवेक का उपयोग करने की ज़रूरत होती है. जैसा कि ऊपर बताया गया है, यह खास तौर पर महत्वपूर्ण है कि Meta का संकट पॉलिसी प्रोटोकॉल जल्दी सक्रिय किया जाए और यह कि Meta की पॉलिसीज़ का सटीक एन्फ़ोर्समेंट सुनिश्चित करने के लिए, रिव्यूअर्स को संदर्भ विशिष्ट मार्गदर्शन देना ज़रूरी है.

बोर्ड ने नोट किया कि यूके के दंगों जैसे संदर्भ में चैलेंज और ठीक न की गई गलत जानकारी खास तौर पर खतरनाक हो सकती है. X पर प्रोफ़ेसर मार्क ओवेन जोंस (गलत जानकारी और दुष्प्रचार के विशेषज्ञ) के 30 जुलाई के विश्लेषण में बताया गया है कि X पर ऐसी पोस्ट को कम से कम 27 मिलियन इंप्रेशन मिले जिनमें कहा गया था कि हमलावर एक मुस्लिम, अप्रवासी, शरणार्थी या विदेशी है. उन्होंने यह भी नोट किया कि ऐसी अटकलों की निंदा करने वाली पोस्ट को 13 मिलियन से ज़्यादा इंप्रेशन मिले.

इस संदर्भ में गलत जानकारी पर Meta की पॉलिसी महत्वपूर्ण हैं, खास तौर पर वह नियम जिसके तहत “ऐसी गलत जानकारी या वेरिफ़ाई न की जा सकने वाली अफवाहों को हटा दिया जाता है जिनसे विशेषज्ञ पार्टनर की नज़र में तात्कालिक हिंसा हो सकती हो या लोगों की जान-माल का नुकसान हो सकता हो,” (राया कोबो में कथित अपराध फ़ैसला देखें). ऐसी गलत जानकारी, जिससे निकट भविष्य में हिंसा या जान-माल का नुकसान होने का जोखिम न हो, के लिए हटाने से कम कठोर उपाय ज़रूरी हो सकते हैं, उदाहरण के लिए झूठ को सही करने के लिए अतिरिक्त जानकारी देना. Meta ने बोर्ड को बताया कि उसके थर्ड-पार्टी फ़ैक्ट-चेकर ने “कई कंटेंट” का रिव्यू उनके पोस्ट होने के तुरंत बाद किया जिनमें “साउथपोर्ट के अपराधी का गलत नाम” फैलाया गया था और उन्हें “झूठ” के रूप में कैटेगराइज़ किया. फ़ैक्ट-चेकर्स को तब ऐसा करने में सक्षम होना चाहिए था, जब 30 जुलाई को यूके के अधिकारियों ने नाम के गलत होने से जुड़े बयान जारी किए. इन पोस्ट को फिर फ़ैक्ट-चेक लेबल से कवर किया गया, उनकी विज़िबिलिटी को “प्लेटफ़ॉर्म पर उनके दिखाई देने के कुछ ही घंटों के भीतर” सीमित कर दिया गया और यूज़र्स को फ़ैक्ट-चेकर के उस आर्टिकल पर भेजा गया जिसमें सच्चाई बताई गई थी. फ़ैक्ट-चेकिंग के बारे में Meta के नज़रिए के बारे में ज़्यादा जानने के लिए, COVID-19 से जुड़ी गलत जानकारी को निकालना पॉलिसी एडवाइज़री टीम की राय देखें. बोर्ड को इस बात की जानकारी नहीं है कि यूके के दंगों के दौरान पोस्ट किए गए झूठे कंटेंट के कितने प्रतिशत भाग का रिव्यू, फ़ैक्ट-चेकर्स द्वारा किया गया था. बोर्ड ने अपनी उन चिंताओं की याद दिलाई जिनमें उसने कहा था कि Meta जिन फ़ैक्ट-चेकर्स पर भरोसा करता है, उनकी संख्या सीमित है और अक्सर ऐसा होता कि फ़ैक्ट-चेकर के रिव्यू के लिए कतारबद्ध कंटेंट की बड़ी मात्रा का कभी आकलन होता ही नहीं है.

चूँकि अमेरिका से शुरुआत करते हुए Meta अपने कम्युनिटी नोट्स प्रोग्राम को प्रस्तुत करने की योजना बना रहा है, जिसे वह थर्ड पार्टी फ़ैक्ट चेकिंग की जगह उपयोग करना चाहता है, इसलिए उसे यूके के दंगों के दौरान गलत जानकारी पर प्रतिक्रिया करने के मिलते-जुलते टूल्स का उपयोग करने वाले प्लेटफ़ॉर्म के अनुभव का परीक्षण करना चाहिए और कम्युनिटी नोट्स की प्रभावशीलता के बारे में व्यापक रिसर्च करना चाहिए. उदाहरण के लिए, Center for Countering Digital Hate (CCDH) द्वारा X पर पाँच हाई-प्रोफ़ाइल अकाउंट द्वारा की गई पोस्ट, जिनमें उन्होंने यूके के दंगों के दौरान गलत जानकारी फैलाई, की रिसर्च में पाया गया कि इन अकाउंट को 430 मिलियन से ज़्यादा व्यू मिले. 29 जुलाई से 5 अगस्त के बीच इन अकाउंट द्वारा शेयर की गई 1,060 पोस्ट के उनके विश्लेषण के अनुसार, सिर्फ़ एक में कम्युनिटी नोट था.

मानवाधिकार सम्यक तत्परता

UNGP के सिद्धांत 13, 17 (c) और 18 के अनुसार Meta के लिए यह ज़रूरी है कि वह पॉलिसी और एन्फ़ोर्समेंट में सार्थक बदलावों के लिए नियमित रूप से मानवाधिकार सम्यक तत्परता उपाय करे, जिन्हें कंपनी साधारण रूप से अपने पॉलिसी प्रोडक्ट फ़ोरम के ज़रिए करती है, जिसमें प्रभावित स्टेकहोल्डर्स के साथ एंगेजमेंट शामिल है. बोर्ड इस बात से चिंतित है कि Meta के 7 जनवरी, 2025 के पॉलिसी और एन्फ़ोर्समेंट से जुड़े बदलाव जल्दबाज़ी में अनाउंस किए गए जिसमें नियमित प्रक्रिया का पालन नहीं किया गया और इस बात की कोई सार्वजनिक जानकारी शेयर नहीं की गई कि अगर कोई मानवाधिकार सम्यक तत्परता उपाय किए गए हैं, तो वे कौन-से हैं.

अब इन बदलावों को वैश्विक रूप से लागू किया जा रहा है, इसलिए Meta द्वारा यह सुनिश्चित किया जाना ज़रूरी है कि मानवाधिकारों पर इन बदलावों के प्रतिकूल प्रभावों की पहचान की जाए, उन्हें दूर किया जाए और रोका जाए और उन्हें सार्वजनिक रूप से रिपोर्ट किया जाए. इसमें यह फ़ोकस शामिल होना चाहिए कि अलग-अलग ग्रुप्स पर किस तरह का अलग-अलग असर हो सकता है. इन ग्रुप्स में अप्रवासी, शरणार्थी और शरण चाहने वाले लोग शामिल हैं. एन्फ़ोर्समेंट से जुड़े बदलावों के संबंध में, सम्यक तत्परता में ज़रूरत से ज़्यादा एन्फ़ोर्समेंट ( क्यूबा में महिलाओं से विरोध प्रदर्शन का आह्वान, अरबी शब्दों को स्वीकार्य उपयोग में लाना) के साथ-साथ ज़रूरत से कम एन्फ़ोर्समेंट ( यहूदी नरसंहार को नकारना (होलोकॉस्ट डिनायल), पश्चिम अफ़्रीका में होमोफ़ोबिक हिंसा, ट्रांसजेंडर लोगों को टार्गेट करने के लिए पोलिश भाषा में की गई पोस्ट) को ध्यान में रखा जाना चाहिए. बोर्ड ने नोट किया कि इन चिंताओं के समाधान में “यूरोपियन यूनियन की आव्रजन पॉलिसी और अप्रवासियों की आलोचना” केसों में दिया गया पहला सुझाव प्रासंगिक है.

6. ओवरसाइट बोर्ड का फ़ैसला

ओवरसाइट बोर्ड ने तीनों कंटेंट को बनाए रखने के Meta के मूल फ़ैसलों को पलट दिया और दूसरी और तीसरी पोस्ट को हटाने के लिए कहा.

7. सुझाव

कंटेंट पॉलिसी

1. हिंसा और उकसावे से जुड़े अपने कम्युनिटी स्टैंडर्ड की स्पष्टता को बेहतर बनाने के लिए, Meta को यह बताना चाहिए कि जगहों और लोगों के खिलाफ़ हिंसा की सभी बहुत गंभीर धमकियाँ प्रतिबंधित हैं.

बोर्ड इस सुझाव को तब लागू मानेगा जब Meta, हिंसा और उकसावे से जुड़े अपने कम्युनिटी स्टैंडर्ड को अपडेट करेगा.

एन्फ़ोर्समेंट

2. नफ़रत फैलाने वाले आचरण से जुड़े अपने कम्युनिटी स्टैंडर्ड की स्पष्टता को बेहतर बनाने के लिए, Meta को स्पष्ट और सुदृढ़ शर्तें बनाकर यह बताना चाहिए कि कौन-सी बातें सुरक्षित विशिष्टता के आधार पर विज़ुअल रूप में गंभीर आपराधिकता के आरोप मानी जाती हैं. ये शर्तें, टेक्स्ट आधारित नफ़रत फैलाने वाले कंटेंट के मौजूदा स्टैंडर्ड के अनुसार होनी चाहिए और उन्हें इन स्टैंडर्ड को अपनाना चाहिए ताकि टेक्स्ट और फ़ोटो पर एक जैसी शर्तें लागू हों.

बोर्ड इस सुझाव को तब लागू मानेगा जब आंतरिक क्रियान्वयन स्टैंडर्ड में प्रस्तावित बदलाव दिखाई देगा.

3. यह सुनिश्चित करने के लिए कि संकट के समय में Meta प्रभावी रूप से और एकरूपता से प्रतिक्रिया करता है, कंपनी को संकट पॉलिसी प्रोटोकॉल शुरू करने के लिए तय की गई शर्तों पर फिर से विचार करना चाहिए. मौजूदा नज़रिए के अलावा, जिसमें कंपनी के पास ऐसी शर्तों की लिस्ट है जिनके परिणामस्वरूप प्रोटोकॉल एक्टिवेशन हो भी सकता है और नहीं भी, कंपनी को ऐसी मुख्य शर्तों की पहचान करनी चाहिए जिनका पूरा होना प्रोटोकॉल को तुरंत एक्टिवेशन के लिए पर्याप्त हो.

बोर्ड इस सुझाव को तब लागू मानेगा जब Meta, बोर्ड को संकट पॉलिसी प्रोटोकॉल को एक्टिवेट करने का अपना नया नज़रिया बताएगा और अपने ट्रांसपेरेंसी सेंटर में इसकी प्रोसेस की जानकारी देगा.

4. भविष्य में संकट की स्थितियों में हिंसा और उकसावे और नफ़रत फैलाने वाले आचरण से जुड़ी अपनी पॉलिसीज़ का सटीक एन्फ़ोर्समेंट सुनिश्चित करने के लिए, Meta के संकट पॉलिसी प्रोटोकॉल को यह सुनिश्चित करना चाहिए कि पॉलिसी के ऐसे संभावित उल्लंघन, जिनसे हिंसा होने की आशंका और निकटता हो, आंतरिक ह्यूमन रिव्यू के लिए फ़्लैग किए जाएँ. इन रिव्यूअर्स को शुरुआती रिव्यू करने वाले रिव्यूअर्स को समयबद्ध और संदर्भ आधारित मार्गदर्शन देना चाहिए, जिनमें फ़ोटो पर आधारित उल्लंघन भी शामिल हों.

बोर्ड इसे तब लागू मानेगा जब Meta इस नए संकट पॉलिसी प्रोटोकॉल लीवर पर डॉक्यूमेंट शेयर करेगा और उसमें बताए कि किस तरह (1) संभावित उल्लंघनों को आंतरिक रिव्यू के लिए फ़्लैग किया जाता है; (2) संदर्भ आधारित मार्गदर्शन को नीचे के लेवल तक पहुँचाया जाता है; और (3) शुरुआती रिव्यूअर्स के लिए लागू किया जाता है.

5. चूँकि कंपनी कम्युनिटी नोट्स की सुविधा प्रस्तुत करने जा रही है, इसलिए उसे थर्ड पार्टी फ़ैक्ट चेकिंग की तुलना में कम्युनिटी नोट्स की प्रभावशीलता का निरंतर आकलन करना चाहिए. इन आकलनों में उन स्थितियों में जोड़े जा रहे नोट्स या लेबल की गति, सटीकता और मात्रा पर ध्यान दिया जाना चाहिए, जिनमें गलत जानकारी के त्वरित फैलाव से लोगों की सुरक्षा को खतरा होता है.

बोर्ड इस सुझाव को तब लागू मानेगा जब Meta, बोर्ड को हर छह महीनों में तब तक अपडेट भेजेगा जब तक कि इसका क्रियान्वयन पूरा नहीं हो जाता. साथ ही कंपनी को इस मूल्यांकन के परिणाम सार्वजनिक रूप से शेयर करने होंगे.

*प्रक्रिया संबंधी नोट:

  • ओवरसाइट बोर्ड के फ़ैसले पाँच मेंबर्स के पैनल द्वारा लिए जाते हैं और उन पर बोर्ड के अधिकांश मेंबर्स की सहमति होती है. ज़रूरी नहीं है कि बोर्ड के फ़ैसले, सभी सदस्यों की राय दर्शाएँ.
  • अपने चार्टर के तहत, ओवरसाइट बोर्ड उन यूज़र्स की अपील रिव्यू कर सकता है, जिनका कंटेंट Meta ने हटा दिया था और उन यूज़र्स की अपील जिन्होंने उस कंटेंट की रिपोर्ट की थी जिसे Meta ने बनाए रखा. साथ ही, बोर्ड Meta की ओर से रेफ़र किए गए फ़ैसलों का रिव्यू कर सकता है (चार्टर आर्टिकल 2, सेक्शन 1). बोर्ड के पास Meta के कंटेंट से जुड़े फ़ैसलों को कायम रखने या उन्हें बदलने का बाध्यकारी अधिकार है (चार्टर आर्टिकल 3, सेक्शन 5; चार्टर आर्टिकल 4). बोर्ड ऐसे गैर-बाध्यकारी सुझाव दे सकता है, जिनका जवाब देना Meta के लिए ज़रूरी है (चार्टर आर्टिकल 3, सेक्शन 4; अनुच्छेद 4). जहाँ Meta, सुझावों पर एक्शन लेने की प्रतिबद्धता व्यक्त करता है, वहाँ बोर्ड उनके क्रियान्वयन की निगरानी करता है.
  • इस केस के फ़ैसले के लिए, बोर्ड की ओर से स्वतंत्र रिसर्च करवाई गई थी. बोर्ड को Duco Advisers की सहायता मिली, जो भौगोलिक-राजनैतिक, विश्वास और सुरक्षा तथा टेक्नोलॉजी के आपसी संबंध पर काम करने वाली एक एडवाइज़री फ़र्म है.

मामले के निर्णयों और नीति सलाहकार राय पर लौटें