पलट जाना
कोलंबियाई पुलिस का कार्टून
ओवरसाइट बोर्ड ने एक Facebook पोस्ट को हटाने के Meta के मूल फ़ैसले को बदल दिया, जिसमें कोलंबिया में पुलिस की हिंसा को दिखाने वाला एक कार्टून था.
केस का सारांश+
ओवरसाइट बोर्ड ने एक Facebook पोस्ट को हटाने के Meta के मूल फ़ैसले को बदल दिया, जिसमें कोलंबिया में पुलिस की हिंसा को दिखाने वाला एक कार्टून था. बोर्ड इस बात से चिंतित है कि मीडिया मैचिंग सर्विस बैंक, जो Meta के नियमों का उल्लंघन करने वाली फ़ोटो को अपने आप हटा सकता है, गलत फ़ैसलों के बैंक के कंटेंट पर असर को बढ़ा सकता है. जवाब में, Meta को तुरंत अपनी प्रक्रियाओं में सुधार करके इन बैंक से उल्लंघन न करने वाले कंटेंट को तुरंत हटाना चाहिए.
केस की जानकारी
सितंबर 2020 में, कोलंबिया के एक Facebook यूज़र ने एक कार्टून पोस्ट किया जिसमें कोलंबिया की राष्ट्रीय पुलिस के राजचिह्न जैसी आकृति दिखाई गई थी और पुलिस की वर्दी पहने तीन व्यक्ति उनके सिर पर लाठी थामे खड़े हैं. ऐसा लग रहा है कि ये तीन लोग ज़मीन पर पड़े एक आदमी को लात मार रहे हैं और पीट रहे हैं, जिसके सिर के नीचे खून दिखाई दे रहा है. राजचिह्न पर स्पैनिश में लिखा था, “República de Colombia - Policía Nacional - Bolillo y Pata.” Meta ने इसका अनुवाद “राष्ट्रीय पुलिस – कोलंबिया गणराज्य – लाठी और लात.”
Meta के अनुसार, यूज़र द्वारा कंटेंट पोस्ट किए जाने के 16 महीनों के बाद जनवरी 2022 में कंपनी ने कंटेंट को हटा दिया क्योंकि वह मीडिया मैचिंग सर्विस बैंक की एक फ़ोटो से मैच हो रहा था. ये बैंक ऐसी फ़ोटो को अपने आप पहचानकर उन्हें हटा सकते हैं जिन्हें ह्यूमन रिव्यूअर द्वारा कंपनी के नियमों के अनुसार उल्लंघन करने वाला पाया गया है. बोर्ड द्वारा यह केस चुने जाने पर, Meta ने पाया कि पोस्ट उसके नियमों का उल्लंघन नहीं करती है और उसे बहाल कर दिया. कंपनी ने इस कार्टून को दिखाने वाले कंटेंट के अन्य हिस्सों को भी बहाल कर दिया जिन्हें उसके मीडिया मैचिंग सर्विस बैंक द्वारा गलती से हटा दिया गया था.
मुख्य निष्कर्ष
जैसा कि Meta ने अब जान लिया है, यह पोस्ट उसकी पॉलिसी का उल्लंघन नहीं करती. यह Meta की गलती थी कि उसने इस कार्टून को अपने मीडिया मैचिंग सर्विस बैंक में जोड़ दिया, जिसके कारण प्लेटफ़ॉर्म से फ़ोटो को हर जगह से और अनुचित रूप से हटा दिया गया, इस केस के यूज़र द्वारा पोस्ट किए गए कंटेंट से भी. इस तरह से हटाए जाने के खिलाफ़ 215 यूज़र्स द्वारा अपील किए जाने और ऐसी 98% अपील के सफल होने के बावजूद भी Meta ने इस बैंक से कार्टून को तब तक नहीं निकाला जब तक कि केस बोर्ड तक नहीं पहुँच गया.
यह केस बताता है कि कंटेंट को हटाने के लिए ऑटोमेटेड सिस्टम का उपयोग करने से मीडिया मैचिंग सर्विस बैंक, व्यक्तिगत ह्यूमन रिव्यूअर के गलत फ़ैसलों के असर का दायरा कैसे बढ़ा सकते हैं. ऐसे बैंक में गलती से जोड़े गए कंटेंट का खतरा उस स्थिति में ज़्यादा होता है जिसमें सरकार की ओर से काम करने वाले लोगों की आलोचना करने वाली राजनैतिक बयानबाज़ी का कंटेंट होता है, जैसा इस केस में हुआ.
जवाब में, Meta को ऐसा मैकेनिज़्म बनाना चाहिए जो उसके मीडिया मैचिंग सर्विस बैंक से उल्लंघन न करने वाले ऐसे कंटेंट को तुरंत हटा दे जिसे गलती से जोड़ दिया गया हो. जब इन बैंक में शामिल कंटेंट को हटाने के फ़ैसलों को अपील के कारण जल्दी-जल्दी बदला जाता है, तो इससे तुरंत रिव्यू ट्रिगर होने चाहिए जिनके कारण इस कंटेंट को बैंक से निकाला जा सके.
बोर्ड ख़ास तौर इस बात से चिंतित है कि Meta, विशिष्ट कंटेंट पॉलिसी के लिए मीडिया मैचिंग सर्विस बैंक की सटीकता का मूल्यांकन नहीं करता. इस डेटा के बिना, जो इन बैंक के काम करने के तरीके को बेहतर बनाने के लिए महत्वपूर्ण है, कंपनी यह नहीं बता सकती कि क्या यह टेक्नोलॉजी कुछ कम्युनिटी स्टैंडर्ड के लिए दूसरों से ज़्यादा असरदार तरीके से काम करती है.
ओवरसाइट बोर्ड का फ़ैसला
ओवरसाइट बोर्ड ने संबंधित कंटेंट को हटाने के Meta के मूल फ़ैसले को पलट दिया.
बोर्ड ने Meta को सुझाव दिया कि वह:
- यह सुनिश्चित करे कि ज़्यादा बार अपील वाले और ज़्यादा सफल अपील वाले कंटेंट को उसके मीडिया मैचिंग सर्विस बैंक से हटाने के लिए फिर से आकलन किया जाए.
- बैंक में मौजूद कंटेंट को अतिरिक्त रिव्यू के लिए पहचाने जाने और उल्लंघन न करने वाला पाए जाने पर उसे बैंक से निकाले जाने के बीच का समय कम करे. इससे यह सुनिश्चित होगा कि उल्लंघन न करने वाला कंटेंट, मीडिया मैचिंग सर्विस बैंक से तुरंत हटा दिया जाता है.
- ट्रांसपेरेंसी रिपोर्ट में उल्लंघन करने वाले कंटेंट के मीडिया मैचिंग सर्विस बैंक में गलती से शामिल कंटेंट की गलती की दर प्रकाशित करे जिसे कंटेंट पॉलिसी के अनुसार अलग-अलग किया गया हो.
*केस के सारांश से केस का ओवरव्यू पता चलता है और आगे के किसी फ़ैसले के लिए इसको आधार नहीं बनाया जा सकता है.
केस का पूरा फ़ैसला
1. फ़ैसले का सारांश
ओवरसाइट बोर्ड ने एक Facebook पोस्ट को हटाने के Meta के मूल फ़ैसले को बदल दिया, जिसमें कोलंबिया में पुलिस की हिंसा को दिखाने वाला एक कार्टून था. बोर्ड ने पाया कि कार्टून, जो किसी भी Facebook कम्युनिटी स्टैंडर्ड का उल्लंघन नहीं करता है, को गलती से Meta के एक मीडिया मैचिंग सर्विस बैंक में डाल दिया गया था जिसके कारण पोस्ट हटाई गई. ये बैंक ऐसी फ़ोटो को अपने आप पहचानकर उन्हें हटा सकते हैं जिन्हें पहले कंपनी के नियमों का उल्लंघन करने वाला पाया गया है. बोर्ड द्वारा इस केस को चुने जाने के बाद, Meta ने इस कंटेंट को उल्लंघन नहीं करने वाला पाया और यह स्वीकार किया कि उसे गलती से हटाया गया था. बोर्ड इस बात से चिंतित है कि मीडिया मैचिंग सर्विस बैंक में उल्लंघन न करने वाले कंटेंट को गलती से शामिल करने से अनुपातहीन गलत एन्फ़ोर्समेंट होते हैं. इसके अलावा, इस गलती को रोक न पाने या उसे तुरंत ठीक न कर पाने से यह समस्या समय के साथ बढ़ती जाती है. इसलिए, Meta को इन बैंक से उल्लंघन न करने वाले कंटेंट को तुरंत हटाने के लिए अपने रिव्यू मैकेनिज़्म में तुरंत सुधार करने चाहिए, इन मैकेनिज़्म के परफ़ॉर्मेंस पर नज़र रखनी चाहिए और अपनी ट्रांसपेरेंसी प्रयासों के भाग के रूप में सार्वजनिक रूप से जानकारी देनी चाहिए.
2. केस का डिस्क्रिप्शन और बैकग्राउंड
सितंबर 2020 में, कोलंबिया के एक Facebook यूज़र ने किसी दूसरे यूज़र की पोस्ट पर कमेंट के रूप में एक कार्टून की फ़ोटो पोस्ट की. यह कार्टून कोलंबिया की राष्ट्रीय पुलिस के राजचिह्न से मिलता-जुलता है और इसमें तीन लोगों को पुलिस की वर्दी पहने दिखाया गया है, जिनके हाथ ऊपर हैं और वे लाठी पकड़े हुए हैं. कार्टून में ऐसा लग रहा है कि ये तीन लोग ज़मीन पर पड़े एक आदमी को लात मार रहे हैं और पीट रहे हैं, जिसके सिर के नीचे से खून निकल रहा है. ज़मीन पर पड़े आदमी के पास एक किताब और पेंसिल पड़ी दिखाई गई है. राजचिह्न पर स्पैनिश में लिखा था, “República de Colombia - Policía Nacional - Bolillo y Pata.” Meta ने इसका अनुवाद “राष्ट्रीय पुलिस – कोलंबिया गणराज्य – लाठी और लात.” यह पोस्ट उस समय की गई थी जब देश में पुलिस द्वारा लोगों के मारे जाने के बाद व्यापक विरोध प्रदर्शन हो रहे थे.
Meta के अनुसार, जनवरी 2022 में, मतलब इस कंटेंट को पहली बार Facebook पर पोस्ट किए जाने के 16 महीने बाद, कंपनी ने इसे Facebook से हटा दिया, क्योंकि यह कंटेंट Facebook के खतरनाक लोगों और संगठनों से जुड़े कम्युनिटी स्टैंडर्ड का उल्लंघन करने वाले कंटेंट के मीडिया मैचिंग सर्विस बैंक में मौजूद किसी फ़ोटो से मैच करता था. यूज़र ने अपील की और Meta ने कंटेंट को हटाने का अपना फ़ैसला बनाए रखा, लेकिन हटाने के फ़ैसले के पीछे हिंसा और उकसावे के कम्युनिटी स्टैंडर्ड को आधार बनाया. हटाने के समय तक, कंटेंट को तीन बार देखा गया था और उसे कोई रिएक्शन या यूज़र रिपोर्ट प्राप्त नहीं हुई थी.
बोर्ड द्वारा इस केस को चुने जाने के परिणामस्वरूप, Meta ने कंटेंट का फिर से रिव्यू किया और पाया कि वह खतरनाक लोग और संगठन कम्युनिटी स्टैंडर्ड या हिंसा और उकसावे के कम्युनिटी स्टैंडर्ड का उल्लंघन नहीं करता है. कंटेंट को फिर उसे हटाए जाने के लगभग एक महीने बाद प्लेटफ़ॉर्म पर बहाल कर दिया गया.
Meta ने बोर्ड को यह भी बताया कि वह फ़ोटो मीडिया मैचिंग सर्विस बैंक में थी, इसलिए इस केस सहित उससे मिलता-जुलता कंटेंट प्लेटफ़ॉर्म से हटा दिया गया है. इनमें से हटाए जाने के 215 मामलों में यूज़र्स ने अपील की और उनमें से 210 अपील सफल रहीं. इसका मतलब है कि केस के इस समूह में रिव्यूअर्स ने माना कि कंटेंट उल्लंघन नहीं करता है. बोर्ड द्वारा केस को चुने जाने के बाद, Meta ने हटाने के अन्य सभी फ़ैसले भी पलट दिए और उनके अनुसार लगाई गई स्ट्राइक और फ़ीचर सीमाएँ वापस ले लीं.
3. ओवरसाइट बोर्ड की अथॉरिटी और स्कोप
बोर्ड को उस यूज़र के अपील करने के बाद Meta के फ़ैसले का रिव्यू करने का अधिकार है, जिसका कंटेंट हटा दिया गया था (चार्टर अनुच्छेद 2, सेक्शन 1; उपनियम अनुच्छेद 3, सेक्शन 1). बोर्ड Meta के फ़ैसले को कायम रख सकता है या उसे बदल सकता है (चार्टर अनुच्छेद 3, सेक्शन 5) और उसका फ़ैसला कंपनी पर बाध्यकारी होता है (चार्टर अनुच्छेद 4). Meta को मिलते-जुलते संदर्भ वाले समान कंटेंट पर अपने फ़ैसले को लागू करने की संभावना का भी आकलन करना चाहिए (चार्टर अनुच्छेद 4). बोर्ड के फ़ैसलों में गैर-बाध्यकारी सलाहों के साथ पॉलिसी से जुड़े सुझाव हो सकते हैं, जिन पर Meta को जवाब देना होगा (चार्टर अनुच्छेद 3, सेक्शन 4; अनुच्छेद 4).
जब बोर्ड इस तरह के केस चुनता है, जहाँ बाद में Meta यह मानता है कि उसने गलती की है, तो बोर्ड मूल फ़ैसले को रिव्यू करके उस कंटेंट मॉडरेशन प्रोसेस को बेहतर तरीके से समझता है जिसके कारण गलती हुए और बोर्ड आगे गलतियों को कम करने और यूज़र्स से निष्पक्षता से व्यवहार करने के संरचनात्मक सुझाव देता है.
4. अथॉरिटी के सोर्स
ओवरसाइट बोर्ड ने अथॉरिटी के नीचे दिए गए सोर्स पर विचार किया:
I.ओवरसाइट बोर्ड के फ़ैसले:
इस केस में बोर्ड का सबसे प्रासंगिक फ़ैसला “कोलंबिया का विरोध प्रदर्शन” फ़ैसला (2021-010-FB-UA) था. इस फ़ैसले में बोर्ड ने विरोध प्रदर्शन के दौरान सरकार की आलोचना करने वाले कंटेंट को परमिशन देने का जनहित हाइलाइट किया, ख़ास तौर पर ऐसे संदर्भों में जहाँ सरकार पर मानवाधिकारों के उल्लंघन का आरोप हो.
II.Meta की कंटेंट पॉलिसी:
Facebook का खतरनाक लोग और संगठन कम्युनिटी स्टैंडर्ड कहता है कि Meta “विभिन्न खतरनाक संगठनों की प्रशंसा, ठोस समर्थन और प्रतिनिधित्व को हटा देता है.”
Facebook के हिंसा और उकसावे से जुड़े कम्युनिटी स्टैंडर्ड में कहा गया है कि Meta "का लक्ष्य ऐसे संभावित ऑफ़लाइन नुकसान को रोकना है जो Facebook से जुड़ा हो सकता है” और यह कि वह ऐसी स्थितियों में अभिव्यक्ति को प्रतिबंधित करता है “जब वह यह मानता हो कि जान और माल के नुकसान का वास्तव में जोखिम है या लोगों की सुरक्षा के लिए सीधा खतरा है.”
Facebook का हिंसक और आपत्तिजनक कंटेंट कम्युनिटी स्टैंडर्ड कहता है कि Meta “ऐसे कंटेंट को हटा देता है जो हिंसा का गुणगान करता है या जिसमें दूसरों के दर्द या अपमान पर खुशी जताई जाती हो.”
III.Meta की वैल्यू:
Meta की वैल्यू, Facebook कम्युनिटी स्टैंडर्ड के परिचय में बताई गई हैं जहाँ “वॉइस” की वैल्यू को “सर्वोपरि” बताया गया है. Meta चार वैल्यू के लिए “वॉइस” की वैल्यू को सीमित करता है - “प्रामाणिकता,” “सुरक्षा,” “प्राइवेसी” और “गरिमा.” “सुरक्षा” और “गरिमा” यहाँ सबसे ज़्यादा प्रासंगिक है.
IV.अंतरराष्ट्रीय मानवाधिकार स्टैंडर्ड:
बिज़नेस और मानवाधिकारों के बारे में संयुक्त राष्ट्र संघ के मार्गदर्शक सिद्धांत (UNGP), जिन्हें 2011 में संयुक्त राष्ट्र संघ की मानवाधिकार समिति ने स्वीकृति दी है, प्राइवेट बिज़नेस की मानवाधिकार से जुड़ी ज़िम्मेदारियों का स्वैच्छिक ढाँचा तैयार करते हैं. 2021 में Meta ने मानवाधिकारों से जुड़ी अपनी कॉर्पोरेट पॉलिसी की घोषणा की, जिसमें उसने UNGP के अनुसार मानवाधिकारों का ध्यान रखने की अपनी प्रतिज्ञा को दोहराया.
इस केस में बोर्ड ने Meta की मानवाधिकार से जुड़ी ज़िम्मेदारियों का विश्लेषण इन मानवाधिकार स्टैंडर्ड को ध्यान में रखते हुए किया जिन्हें इस फ़ैसले के सेक्शन 8 में लागू किया गया है:
- विचार और अभिव्यक्ति की आज़ादी का अधिकार: अनुच्छेद 19, नागरिक और राजनीतिक अधिकारों पर अंतरराष्ट्रीय प्रतिज्ञापत्र (ICCPR), सामान्य कमेंट सं. 34, मानवाधिकार समिति, 2011.
5. यूज़र सबमिशन
बोर्ड को दिए अपने कथन में यूज़र ने कहा कि उसे समझ ही नहीं आया कि Meta ने उसका कंटेंट क्यों हटाया. यूज़र ने बताया कि कंटेंट में कोलंबिया की वास्तविकता दिखाई गई थी जो उन लोगों के लिए महत्वपूर्ण थी जिन्हें स्थिति में दिलचस्पी थी या जो स्थिति से प्रभावित थे.
6. Meta के सबमिशन
Meta ने अपने कारण में बताया कि उसने कंटेंट इसलिए हटाया क्योंकि वह एक ऐसी फ़ोटो से मैच हो रहा था जिसे एक ह्यूमन रिव्यूअर ने खतरनाक लोग और संगठन मीडिया मैचिंग सर्विस बैंक में गलती से डाल दिया था. अपील किए जाने पर, Meta ने हटाए जाने का फ़ैसला बरकरार रखा लेकिन तय किया कि कंटेंट उसकी खतरनाक लोग और संगठन पॉलिसी के बजाय उसकी हिंसा और उकसावे की पॉलिसी का उल्लंघन करता है. Meta ने बाद में कन्फ़र्म किया कि कंटेंट को हटाने के दोनों फ़ैसले गलत थे. कंपनी ने कहा कि हिंसक और आपत्तिजनक कंटेंट पॉलिसी भी इस केस में प्रासंगिक हो सकती है क्योंकि यह हिंसक हमला दर्शाता है लेकिन वह कार्टून जैसी फ़ोटो पर लागू नहीं होती है.
Meta के अनुसार, उसके मीडिया मैचिंग सर्विस बैंक उसके प्लेटफ़ॉर्म पर पोस्ट किए गए मीडिया पर एक्शन लेते हैं, जो इस केस में फ़ोटो थी. बैंक में डालने के लिए कंटेंट की पहचान होने पर, उसे डेटा की एक स्ट्रिंग में बदला जाता है जिसे “हैश” कहते हैं. हैश को फिर किसी ख़ास बैंक से जोड़ा जाता है. Meta के मीडिया मैचिंग सर्विस बैंक में खतरनाक लोग और संगठन, नफ़रत फैलाने वाली भाषा और बाल यौन शोषण, दुर्व्यवहार और नग्नता जैसी ख़ास पॉलिसी या किसी पॉलिसी के ख़ास सेक्शन का ध्यान रखा जाता है. इस केस में, Meta ने कहा कि कंटेंट एक ऐसे मीडिया मैचिंग सर्विस बैंक में था जो खतरनाक लोग और संगठन पॉलिसी में आपराधिक संगठनों के लिए बनाई गए एक ख़ास कैटेगरी थी.
इस बात पर निर्भर करते हुए कि Meta किसी ख़ास बैंक का उपयोग किन कामों में करता है, वह बैंक किए गए कंटेंट की पहचान होने पर अलग-अलग एक्शन लेने के लिए उन्हें प्रोग्राम कर सकता है. उदाहरण के लिए, Meta उल्लंघन करने वाले कंटेंट को डिलीट कर सकता है, उसपर चेतावनी स्क्रीन लगा सकता है या अगर उसे बैंक में उल्लंघन न करने वाला कंटेंट के रूप में बैंक किया गया है तो उसकी अनदेखी कर सकता है. मीडिया मैचिंग सर्विस बैंक, उस समय कंटेंट रिव्यूअर्स का मार्गदर्शन भी कर सकते हैं जब वे बैंक किए गए कंटेंट का रिव्यू करते हैं.
Meta ने यह भी कहा कि उसके मीडिया मैचिंग सर्विस बैंक, अलग-अलग समय पर एक्शन ले सकते हैं. उदाहरण के लिए, उल्लंघन करने वाले कंटेंट को पोस्ट होने से रोकने के लिए Meta, फ़ोटो को अपलोड किए जाते समय स्कैन कर सकता है. बैंक को सिर्फ़ नए अपलोड किए गए कंटेंट का पता लगाने और उसपर एक्शन लेने के लिए कॉन्फ़िगर किया जा सकता है या उन्हें प्लेटफ़ॉर्म पर पहले से मौजूद कंटेंट को स्कैन करने के लिए उपयोग किया जा सकता है.
बोर्ड ने Meta से पूछा कि वह कंटेंट की पहचान कैसे करता है और उसे मीडिया मैचिंग सर्विस बैंक में कैसे जोड़ता है. Meta ने बताया कि बड़े पैमाने पर मौजूद ह्यूमन रिव्यूअर्स यह तय करते हैं कि किस कंटेंट को बैंक में जोड़ा जाए. Meta के अनुसार, खतरनाक लोग और संगठन पॉलिसी से जुड़े मीडिया मैचिंग सर्विस बैंक के लिए, कंटेंट को “डायनेमिक मल्टी-रिव्यू” नाम की एक प्रोसेस में भेजा जाता है जहाँ “मीडिया को बैंक में भेजने के लिए यह ज़रूरी है कि दो रिव्यूअर एक फ़ैसले पर सहमत हों.” Meta ने इसे गलतियों को रोकने में मदद करने वाली गार्डरेल बताया.
बोर्ड ने Meta से यह भी पूछा कि गलती से बैंक में डाले गए कंटेंट की पहचान करने के लिए उसके पास क्या मैकेनिज़्म हैं. Meta ने कहा कि उसके पास “असामान्यता की पहचान करने वाले कई सिस्टम” हैं. इनमें एक ऐसा सिस्टम शामिल है जो तब ट्रिगर होता है जब बैंक में Meta के अनुसार वायरल होने वाला कंटेंट होता है. इसमें एक ऐसा सिस्टम भी शामिल है जो हटाए जाने के बाद सफल अपील के उच्च लेवल वाले बैंक किए गए कंटेंट की पहचान करता है. जब कंटेंट को हटाया गया, तब इस बैंक के लिए ये सिस्टम एक्टिव थे.
Meta ने कहा कि हटाए गए कंटेंट की संख्या और इस कंटेंट पर सफल अपीलों की संख्या से Meta की इंजीनियरिंग टीम को उस समय चेतावनी मिली जब यह कंटेंट हटाया गया था. हालाँकि, एक महीने बाद, जब बोर्ड इस केस को Meta के ध्यान में लाया, तब तक कंपनी ने मीडिया मैचिंग सर्विस बैंक का रिव्यू नहीं किया था और कंटेंट को उसमें से नहीं हटाया था. यह अस्पष्ट है कि क्या इस इंजीनियरिंग टीम ने उन अन्य टीम को अलर्ट किया जो कंटेंट का फिर से रिव्यू करने और यह तय करने के लिए ज़िम्मेदार होगी कि क्या कंटेंट उल्लंघन करता है. Meta ने यह संकेत दिया कि रिपोर्ट का रिव्यू करते समय कुछ समय लगना अपेक्षित है, लेकिन इससे बोर्ड को ऐसी कोई जानकारी नहीं मिली कि उसने कब इस अलर्ट का समाधान किया होगा. बोर्ड इस समयसीमा की लंबाई को लेकर चिंतित है. Meta को इस बात की निगरानी करते रहना चाहिए कि अलर्ट के ट्रिगर होने के बाद बैंक में गलती से जोड़े गए कंटेंट को हटाने और एन्फ़ोर्समेंट के गलत फ़ैसलों को पलटने में उसे कितना समय लगता है और वह इस समय को कम से कम करने के लिए ठोस लक्ष्य तय करे.
अंत में, बोर्ड ने Meta से उन मीट्रिक के बारे में पूछा जिसका उपयोग वह अपने मीडिया मैचिंग सर्विस बैंक के परफ़ॉर्मेंस को ऑडिट करने के लिए करता है. Meta ने कहा कि वह सामान्य तौर पर तब निगरानी करता है जब उसके बैंक से एन्फ़ोर्समेंट से जुड़े गलत फ़ैसलों की संख्या बढ़ती है और वह यह समझने की कोशिश करता है कि इन गलतियों के बढ़ने का क्या कारण हो सकता है. हालाँकि, अभी ये ऑडिट मूल्यांकन आमतौर पर अलग-अलग बैंक पर फ़ोकस करते हैं. चूँकि ये बैंक ख़ास पॉलिसी लाइन को टार्गेट कर सकते हैं और उन्हें कई अलग-अलग एक्शन लेने के लिए प्रोग्राम किया जाता है, इसलिए किसी ख़ास कम्युनिटी स्टैंडर्ड या मीडिया मैचिंग सर्विस बैंक के लिए इन विश्लेषण से समग्र एन्फ़ोर्समेंट स्टीकता का सार्थक डेटा जेनरेट कर पाना कठिन हो सकता है. Meta ने कहा कि वह मीडिया मैचिंग सर्विस बैंक की निगरानी करने के लिए एक एकीकृत मीट्रिक बना रहा है.
बोर्ड ने Meta से कुल 26 सवाल पूछे, जिनमें से 24 का जवाब पूरी तरह दिया गया और दो का जवाब आंशिक रूप से दिया गया. आंशिक जवाब, कंपनी के मीडिया मैचिंग सर्विस बैंक की सटीकता और गलतियों की दर मापने और Meta द्वारा यूज़र को भेजे गए मैसेज से संबंधित तकनीकी समस्याओं से जुड़े थे. Meta ने मीडिया मैचिंग सर्विस बैंक के बारे में बोर्ड मेंबर्स के ग्रुप को एक वर्चुअल ब्रीफ़िंग भी दी.
7. पब्लिक कमेंट
बोर्ड को इस केस के संबंध में चार सार्वजनिक कमेंट मिले. दो कमेंट अमेरिका और कनाडा से तथा दो कमेंट लैटिन अमेरिका और कैरेबियन से किए गए थे. सबमिशन में ये चीज़ें शामिल थीं: कंटेंट मॉडरेशन में मीडिया मैचिंग टेक्नोलॉजी का उपयोग, कोलंबिया का सामाजिक-राजनैतिक संदर्भ, विरोध प्रदर्शन से निपटने में पुलिस हिंसा की रिकॉर्डिंग में सोशल मीडिया की महत्ता और Meta की कंटेंट पॉलिसी को अभिव्यक्ति की आज़ादी की सुरक्षा किस तरह करनी चाहिए.
इस केस को लेकर लोगों की ओर से सबमिट किए गए कमेंट देखने के लिए कृपया यहाँ क्लिक करें.
8. ओवरसाइट बोर्ड का विश्लेषण
बोर्ड ने इस केस को इसलिए चुना क्योंकि इसमें विरोध प्रदर्शनों के संदर्भ में पुलिस हिंसा के बारे में कलात्मक अभिव्यक्ति शामिल है, जो पूरे लैटिन अमेरिका की एक ज्वलंत समस्या है. केस से बोर्ड को कंटेंट मॉडरेशन में मीडिया मैचिंग सर्विस टेक्नोलॉजी के Meta द्वारा उपयोग का विश्लेषण करने का अवसर भी दिया. बोर्ड ने इन तीन दृष्टिकोणों से इस सवाल पर ध्यान दिया कि क्या इस कंटेंट को रीस्टोर कर दिया जाना चाहिए: Meta की कंटेंट पॉलिसी, कंपनी वैल्यू और मानवाधिकारों से जुड़ी उसकी ज़िम्मेदारियाँ.
8.1 Meta की कंटेंट पॉलिसी का अनुपालन
I.कंटेंट नियम
बोर्ड ने पाया कि Meta के एक्शन, Facebook की कंटेंट पॉलिसी के अनुसार नहीं थे. जैसा कि Meta ने स्वीकार किया कि कंटेंट ने Meta की पॉलिसी का उल्लंघन नहीं किया था. इसे मीडिया मैचिंग सर्विस बैंक में जोड़ने का फ़ैसला और अपील किए जाने पर अपने आप हटाए जाने के फ़ैसले को पलटने की विफलता गलत थे.
II.एन्फ़ोर्समेंट एक्शन
बोर्ड द्वारा केस को चुने जाने के बाद ही Meta ने कंटेंट को रीस्टोर किया. साथ ही उन अन्य मामलों में भी कंटेंट को रीस्टोर कर दिया जिन्हें गलत मीडिया मैचिंग सर्विस बैंकिंग के कारण हटा दिया गया था. बोर्ड के सवाल के जवाब में, Meta ने कहा कि उसके पास गलती से बैंक किए गए कंटेंट के आधार पर होने वाली गलतियों को पहचानने और उसपर एक्शन लेना बंद करने के लिए फ़ीडबैक मैकेनिज़्म था. इसके बावजूद, 215 मामलों में कंटेंट हटाने के खिलाफ़ अपील हुई और उनमें से 98% अपील सफल रहीं और किसी फ़ीडबैक मैकेनिज़्म ने बोर्ड के पास केस पहुँचने से पहले मीडिया मैचिंग सर्विस बैंक से कंटेंट को नहीं हटाया.
8.2 Meta की वैल्यू का अनुपालन
बोर्ड ने पाया कि कंटेंट को हटाने का मूल फ़ैसला Meta की “वॉइस” की वैल्यू के खिलाफ़ था और Meta की कोई अन्य वैल्यू इस फ़ैसले की तरफ़ नहीं थी.
8.3 Meta की मानवाधिकारों से जुड़ी ज़िम्मेदारियों का अनुपालन
बोर्ड ने कहा कि कंटेंट को हटाने का Meta का शुरुआती फ़ैसला, एक बिज़नेस के रूप में उसकी मानवाधिकार की ज़िम्मेदारियों के अनुसार नहीं था. Meta, बिज़नेस और मानवाधिकारों के बारे में संयुक्त राष्ट्र के मार्गदर्शक सिद्धांतों (UNGP) के तहत मानवाधिकारों का सम्मान करने के लिए प्रतिबद्ध है. Facebook की कॉर्पोरेट मानवाधिकार पॉलिसी में बताया गया है कि इसमें नागरिक और राजनीतिक अधिकारों पर अंतरराष्ट्रीय प्रतिज्ञापत्र (ICCPR) शामिल है.
अभिव्यक्ति की आज़ादी (अनुच्छेद 19 ICCPR)
ICCPR का अनुच्छेद 19 अभिव्यक्ति की व्यापक सुरक्षा देता है और सामाजिक या राजनैतिक चिंताओं से जुड़ी अभिव्यक्ति को ज़्यादा सुरक्षा मिलती है ( सामान्य कमेंट 34, पैरा. 11 और 20). अनुच्छेद 19 के अनुसार जहाँ राज्य अभिव्यक्ति पर प्रतिबंध लागू करता है, वहाँ प्रतिबंधों को वैधानिकता, वैधानिक लक्ष्य और आवश्यकता तथा अनुपात की शर्तों को पूरा करना ज़रूरी होता है (अनुच्छेद 19, पैरा. 3, ICCPR). Meta के कंटेंट मॉडरेशन के अपने विश्लेषण का मार्गदर्शन करने के लिए बोर्ड इस फ़्रेमवर्क का उपयोग करता है.
I.वैधानिकता (नियमों की स्पष्टता और सुलभता)
वैधानिकता की शर्त यह कहती है कि अभिव्यक्ति की आज़ादी का कोई भी प्रतिबंध एक्सेस योग्य होना चाहिए और उसे यह स्पष्ट मार्गदर्शन देना चाहिए कि किन बातों की परमिशन है और किनकी नहीं. इस केस में, कंटेंट के गलती से हटाए जाने को प्रासंगिक पॉलिसी की स्पष्टता की कमी या उनकी एक्सेस न होने से नहीं जोड़ा जा सकता था.
II.वैधानिक लक्ष्य
अभिव्यक्ति से संबंधित प्रतिबंध में ICCPR में सूचीबद्ध वैधानिक लक्ष्यों में से किसी एक का अनुसरण किया जाना चाहिए, जिसमें "अन्य लोगों के अधिकार" शामिल हैं. Meta के अनुसार, खतरनाक लोग और संगठन और हिंसा और उकसावे की पॉलिसी का उद्देश्य ऑफ़लाइन हिंसा को रोकना है. बोर्ड ने लगातार यह पाया है कि ये उद्देश्य, Meta की मानवाधिकार ज़िम्मेदारियों के अनुरूप हैं.
III.आवश्यकता और आनुपातिकता
आवश्यकता और आनुपातिकता के सिद्धांत के अनुसार यह ज़रूरी है कि अभिव्यक्ति की आज़ादी से संबंधित प्रतिबंध "रक्षा करने के उनके कार्य को सही तरीके से पूरा करने वाले होने चाहिए; उनसे उन लोगों के अधिकारों में कम से कम हस्तक्षेप होना चाहिए, जिन्हें उन प्रतिबंधों से होने वाले रक्षात्मक कार्यों का लाभ मिल सकता है; [और] जिन हितों की सुरक्षा की जानी है, उसके अनुसार ही सही अनुपात में प्रतिबंध लगाए जाने चाहिए" (सामान्य कमेंट 34, पैरा. 34).
इस केस में, यूज़र के कंटेंट को हटाना ज़रूरी नहीं था क्योंकि उससे कोई वैधानिक लक्ष्य हासिल नहीं हुआ. इसके अलावा, Meta के मीडिया मैचिंग सर्विस बैंक की डिज़ाइन के कारण रिव्यूअर्स ने बैंक में गलती से ऐसा कंटेंट जोड़ दिया जिसने उससे मिलते-जुलते कंटेंट को उल्लंघन न करने के बावजूद अपने आप हटा दिया. Meta के बड़े स्तर के कामकाज के बावजूद, इस केस में कंटेंट हटाने की बड़ी संख्या को देखते हुए बोर्ड ने इसे अत्यंत अनुचित पाया. कंटेंट हटाए जाने की संख्या को वेरिफ़ाई करने की लंबी डेटा सत्यापन प्रोसेस पूरी करने के बावजूद, Meta ने बोर्ड को यह संख्या प्रकट करने से रोक दिया. इसका कारण यह बताया गया कि वह संख्या, Meta के मीडिया मैचिंग सर्विस सिस्टम की क्वालिटी का सही रूप प्रस्तुत नहीं करती.
बोर्ड ने पाया कि इस केस में कंटेंट को हटाया जाना ख़ास तौर पर चिंताजनक है क्योंकि कंटेंट, Meta की किसी भी पॉलिसी का उल्लंघन नहीं करता और उसमें सिर्फ़ मानवाधिकार उल्लंघनों की आलोचना थी जो कि संरक्षित अभिव्यक्ति है. पुलिस हिंसा, एक प्रमुख और ज़रूरी सार्वजनिक चिंता का विषय है. बोर्ड ने 2021-010-FB-UA केस में कोलंबिया में विरोध प्रदर्शन से जुड़ी जानकारी शेयर करने में सोशल मीडिया की महत्ता पहले भी नोट की थी.
बोर्ड ने पाया कि ऐसे बैंक में कंटेंट जोड़ने, उसका ऑडिट करने और उसे हटाने के पर्याप्त कंट्रोल होना और अपील के अवसरों का होना ज़रूरी है. ये बैंक कुछ एन्फ़ोर्समेंट फ़ैसलों के दायरों को कई गुना बढ़ा देते हैं जिसके कारण गलतियों के परिणाम अनुपातहीन हो जाते हैं. यह देखते हुए कि ऑटोमेट किए जाने पर कंटेंट को हटाने के परिणाम अनुपातहीन रूप से बढ़ सकते हैं, कंटेंट को जोड़ने के संबंध में यह ज़रूरी है कि Meta यह सुनिश्चित करने के लिए अपनी प्रक्रियाओं को मज़बूत बनाए कि उल्लंघन न करने वाला कंटेंट न जोड़ा जाए. मीडिया मैचिंग सर्विस बैंक में गलती से जोड़े गए कंटेंट का खतरा उस स्थिति में ज़्यादा होता है जिसमें सरकार की ओर से काम करने वाले लोगों या उनके कामों की आलोचना करने वाली राजनैतिक बयानबाज़ी का कंटेंट होता है, जैसा इस केस में हुआ. मीडिया मैचिंग सर्विस बैंक, गलत व्यक्तिगत फ़ैसलों के असर को ऑटोमेट करके कई गुना बढ़ा देते हैं और Meta के लिए लगातार इस बात पर विचार करना महत्वपूर्ण है कि गलतियों को कम करने के कौन से उपाय उसके ह्यूमन रिव्यूअर्स की सबसे बेहतर मदद कर सकते हैं. इसमें उदाहरण के लिए, रिव्यू के लिए अतिरिक्त लोग रखना, ट्रेनिंग देना और समय देना शामिल है.
ऑडिट और फ़ीडबैक के संबंध में, कंटेंट को हटाने के लिए सीमित या दोषपूर्ण फ़ीडबैक मैकेनिज़्म वाले मीडिया मैचिंग सर्विस बैंक का उपयोग अनुपातहीन गलत एन्फ़ोर्समेंट की चिंताएँ बढ़ाता है, जहाँ एक गलती का दायरा बढ़कर कई गुना हो जाता है. Meta द्वारा बोर्ड को यह बताए जाने के बावजूद कि उसके पास गलती से बैंक किए गए कंटेंट की पहचान करने और उसके आधार पर एक्शन होने से रोकने का फ़ीडबैक मैकेनिज़्म है, 215 यूज़र्स ने कंटेंट हटाए जाने के खिलाफ़ अपील की और उनमें से 98% अपील सफल हुईं और कंटेंट बैंक में ही बना रहा. Meta को यह सुनिश्चित करना चाहिए कि अगर मीडिया मैचिंग सर्विस बैंक में शामिल होने के कारण किसी कंटेंट पर एक्शन हुआ है और ऐसे एक्शन को पलटे जाने की दर बहुत ज़्यादा है, तो इससे ऐसे रिव्यू ट्रिगर होने चाहिए जिसमें उस कंटेंट को बैंक से हटाने की संभावना पर विचार किया जा सके.
बोर्ड ख़ास तौर इस बात से चिंतित है कि विशिष्ट कंटेंट पॉलिसी के लिए मीडिया मैचिंग सर्विस बैंक की सटीकता के परफ़ॉर्मेंस मीट्रिक मौजूद नहीं हैं. मीडिया मैचिंग सर्विस बैंक की सटीकता की निगरानी करने वाले निष्पक्ष मीट्रिक के बिना, ऐसा कोई असरदार साधन नहीं है जो यह देख सके कि कुछ ख़ास कंटेंट पॉलिसी के लिए किस तरह यह टेक्नोलॉजी कम या ज़्यादा असरदार हो सकती है. सुधार का कोई ठोस बेंचमार्क भी मौजूद नहीं है.
बोर्ड ने यह नोट किया कि Meta अपने मीडिया मैचिंग सर्विस बैंक की सटीकता की निगरानी करने के लिए एकीकृत मीट्रिक बनाने पर काम कर रहा है, लेकिन बोर्ड ने कहा कि कंपनी यह प्रोसेस जल्दी से जल्दी पूरी करे. सुधार के लिए मीट्रिक की स्थापना करने के लिए, Meta को ऐसी हर कंटेंट पॉलिसी के लिए सटीकता की जानकारी प्रकाशित करनी चाहिए जहाँ वह मीडिया मैचिंग सर्विस टेक्नोलॉजी का उपयोग करता है.
इसमें उल्लंघन करने वाले कंटेंट के मीडिया मैचिंग सर्विस बैंक में गलती से जोड़े गए उल्लंघन न करने वाले कंटेंट की गलती की दरों का डेटा शामिल होना चाहिए. इसमें गलती से बैंक में जोड़े गए कंटेंट के कारण प्रभावित कंटेंट की मात्रा और गलतियों के मुख्य उदाहरण भी शामिल होने चाहिए. इस डेटा से Meta को बैंक से जुड़ी गलतियों के व्यापक असर समझने और उन्हें कम करने के टार्गेट सेट करने में मदद मिलेगी. इसके अलावा, इससे यूज़र्स को ऑटोमेटेड एन्फ़ोर्समेंट की गलतियों को समझने और उनपर प्रतिक्रिया देने की सुविधा मिलेगी.
9. ओवरसाइट बोर्ड का फ़ैसला
ओवरसाइट बोर्ड ने कंटेंट को हटाने के Meta के मूल फ़ैसले को बदल दिया है.
10. पॉलिसी से जुड़ी सलाह का कथन
एन्फ़ोर्समेंट
1. उल्लंघन करने वाले कंटेंट को पहचानने या अपने आप हटाने के लिए प्रोग्राम किए गए बैंक से उल्लंघन न करने वाले कंटेंट को हटाने की Meta की योग्यता को बेहतर बनाने के लिए, Meta को यह सुनिश्चित करना चाहिए कि जिस कंटेंट पर बहुत ज़्यादा अपील हुई हों और अपील की सफलता की दर बहुत ज़्यादा हो, उस कंटेंट का फिर से मूल्यांकन करके यह देखा जाए कि क्या उसे मीडिया मैचिंग सर्विस बैंक से हटाया जा सकता है. बोर्ड इस सुझाव को तब लागू मानेगा जब Meta: (i) बोर्ड को उन अपील और सफल अपील की दर बताए जहाँ मीडिया मैचिंग सर्विस में बैंक किए गए कंटेंट का रिव्यू ट्रिगर होता हो, और (ii) सार्वजनिक रूप से यह कन्फ़र्म करे कि फिर से मू्ल्यांकन करने के ये सिस्टम, उल्लंघन करने वाले कंटेंट को टार्गेट करने वाले सभी बैंक के लिए एक्टिव हैं.
2. यह सुनिश्चित करने के लिए कि बैंक में गलती से जोड़े गए कंटेंट को Meta के मीडिया मैचिंग सर्विस बैंक से तुरंत हटा दिया जाए, Meta को ऐसे स्टैंडर्ड बनाने चाहिए और उनका पालन करना चाहिए जो बैंक में जोड़े गए कंटेंट की फिर से रिव्यू के लिए पहचान होने और उल्लंघन न करने वाला पाए जाने पर उसे बैंक से हटाने के बीच का समय कम करे. बोर्ड इस सुझाव को तब लागू मानेगा जब Meta: (i) फिर से रिव्यू के ट्रिगर होने और उल्लंघन न करने वाला पाए जाने पर कंटेंट को रीस्टोर करने के बीच का लक्ष्य समय तय करे और बोर्ड को बताए, और (ii) अगले वर्ष के दौरान बोर्ड को यह डेटा दे कि इस लक्ष्य को पूरा करने की दिशा में क्या प्रोग्रेस हुई.
पारदर्शिता
3. सुधार के मीट्रिक तैयार करने के लिए, Meta को ट्रांसपेरेंसी रिपोर्ट में उल्लंघन करने वाले कंटेंट के मीडिया मैचिंग सर्विस बैंक में गलती से शामिल कंटेंट की गलती की दर प्रकाशित करनी चाहिए जिसे हर कंटेंट पॉलिसी के अनुसार अलग-अलग किया गया हो. इस रिपोर्ट में यह जानकारी होनी चाहिए कि कंटेंट किस तरह बैंक में पहुँचता है और प्रोसेस में गलतियों की संभावना कम करने के लिए कंपनी क्या करती है. बोर्ड इस सुझाव को तब लागू मानेगा जब Meta इस जानकारी को अपनी कम्युनिटी स्टैंडर्ड एन्फ़ोर्समेंट रिपोर्ट में शामिल करेगा.
*प्रक्रिया संबंधी नोट:
ओवरसाइट बोर्ड के फ़ैसले पाँच सदस्यों के पैनल द्वारा लिए जाते हैं और बोर्ड के अधिकांश सदस्य इन पर सहमति देते हैं. ज़रूरी नहीं है कि बोर्ड के फ़ैसले उसके हर एक मेंबर की निजी राय को दर्शाएँ.
इस केस के फ़ैसले के लिए, बोर्ड की ओर से स्वतंत्र रिसर्च करवाई गई थी. बोर्ड की सहायता एक स्वतंत्र शोध संस्थान ने की जिसका मुख्यालय गोथेनबर्ग यूनिवर्सिटी में है और जिसके पास छह महाद्वीपों के 50 से भी ज़्यादा समाजशास्त्रियों की टीम के साथ ही दुनियाभर के देशों के 3,200 से भी ज़्यादा विशेषज्ञ हैं. बोर्ड को Duco Advisers की सहायता भी मिली, जो भौगोलिक-राजनैतिक, विश्वास और सुरक्षा और टेक्नोलॉजी के आपसी संबंध पर काम करने वाली एक एडवाइज़री फ़र्म है. Lionbridge Technologies, LLC कंपनी ने भाषा संबंधी विशेषज्ञता की सेवा दी, जिसके विशेषज्ञ 350 से भी ज़्यादा भाषाओं में कुशल हैं और वे दुनियाभर के 5,000 शहरों से काम करते हैं.