पलट जाना
म्यांमार बॉट
ओवरसाइट बोर्ड ने Facebook के नफ़रत फैलाने वाली भाषा संबंधी कम्युनिटी स्टैंडर्ड के तहत बर्मी भाषा की एक पोस्ट को हटाने के Facebook के फ़ैसले को बदल दिया है.
केस का सारांश
ओवरसाइट बोर्ड ने Facebook के नफ़रत फैलाने वाली भाषा संबंधी कम्युनिटी स्टैंडर्ड के तहत बर्मी भाषा की एक पोस्ट को हटाने के Facebook के फ़ैसले को बदल दिया है. बोर्ड ने पाया कि वह पोस्ट चीनी लोगों के लिए नहीं बल्कि चीन देश के लिए लिखी गई थी. उसमें ख़ास तौर पर म्यांमार में चीनी सरकार की भूमिका के बारे में राजनैतिक चर्चा करते हुए हांगकांग में चीनी सरकार की पॉलिसी के संदर्भ में अभद्र भाषा का उपयोग किया गया था.
केस की जानकारी
अप्रैल 2021 में शायद म्यांमार में रहने वाले एक Facebook यूज़र ने अपनी टाइमलाइन पर बर्मी भाषा में एक पोस्ट लिखी थी. उस पोस्ट में 1 फ़रवरी 2021 को म्यांमार में हुए तख्तापलट के बाद म्यांमार की सेना के वित्तीय स्रोतों को सीमित करने के तरीकों के बारे में चर्चा की गई थी. उसमें प्रस्ताव दिया गया था कि कर से होने वाली आय, तख्तापलट के विरोधी जनप्रतिनिधियों (सांसदों) के समूह Committee Representing Pyidaungsu Hlutaw (CRPH) को दी जानी चाहिए. उस पोस्ट को लगभग पाँच लाख लोगों ने देखा लेकिन एक भी Facebook यूज़र ने उसकी रिपोर्ट नहीं की.
Facebook ने उस यूज़र की पोस्ट के कथित उल्लंघन करने वाले हिस्से का अनुवाद इस तरह किया: “Hong Kong people, because the fucking Chinese tortured them, changed their banking to UK, and now (the Chinese) they cannot touch them.” (“चूतिए चीनियों ने हांगकांग के लोगों को इतना प्रताड़ित किया कि उन्होंने अपनी बैंकिंग साझेदारी यूके के साथ कर ली और अब वे (चीनी) उन्हें छू भी नहीं सकते.”) Facebook ने अपने नफ़रत फैलाने वाली भाषा के कम्युनिटी स्टैंडर्ड के तहत उस पोस्ट को हटा दिया था. यह कम्युनिटी स्टैंडर्ड किसी व्यक्ति या लोगों के समूह को उनकी नस्लीयता, जाति या राष्ट्रीय मूल के आधार पर निशाना बनाने वाले ऐसे कंटेंट को प्रतिबंधित करता है जिसमें “अभद्र शब्द या अपमानित करने के उद्देश्य से कहे जाने वाले वाक्यांश” शामिल होते हैं.
जिन चार कंटेंट रिव्यूअर्स ने उस पोस्ट का रिव्यू किया, वे सभी इस बात से सहमत थे कि उस पोस्ट में Facebook के नियमों का उल्लंघन किया गया था. बोर्ड से की गई अपील में यूज़र ने बताया कि उन्होंने वह कंटेंट “क्रूर सैन्य शासन को रोकने” के लिए पोस्ट किया था.
मुख्य निष्कर्ष
यह केस बताता है कि नफ़रत फैलाने वाली भाषा से जुड़ीं पॉलिसी लागू करते समय संदर्भ को ध्यान में रखना कितना महत्वपूर्ण होता है, इसके अलावा यह केस राजनीतिक वक्तव्यों की सुरक्षा के महत्व को भी रेखांकित करता है. म्यांमार में फ़रवरी 2021 में हुए तख्तापलट के कारण और वहाँ कम्युनिकेशन के माध्यमों में Facebook की मुख्य भूमिका होने के चलते यह बात ख़ास तौर पर म्यांमार के लिए ज़्यादा प्रासंगिक है.
उस पोस्ट में बर्मी भाषा के एक वाक्यांश “$တရုတ်” का उपयोग किया गया था, Facebook ने इसका अनुवाद “fucking Chinese” (“चूतिए चीनी”) (या “sout ta-yote”) किया. Facebook के अनुसार “ta-yote” शब्द “सांस्कृतिक और भाषाई तौर पर चीन देश और चीनी लोगों, दोनों की पहचान बताता है और इस शब्द के दोनों अर्थ निकलते हैं.” Facebook ने बताया कि इस शब्द की प्रकृति को और इस बात को ध्यान में रखकर कि यूज़र ने “यह स्पष्ट तौर पर नहीं बताया था कि उन्होंने यह शब्द चीन देश/चीनी सरकार के लिए उपयोग किया है,” Facebook ने यह माना कि “यूज़र कहीं ना कहीं अपनी पोस्ट में चीनी लोगों का संदर्भ दे रहा है.” इसीलिए Facebook ने अपने नफ़रत फैलाने वाली भाषा से जुड़े कम्युनिटी स्टैंडर्ड के तहत इस पोस्ट को हटा दिया है.
बर्मी भाषा में इसी शब्द का उपयोग किसी देश या उस देश के लोगों, दोनों के लिए किया जाता है, इसलिए निहित उद्देश्य को समझने में संदर्भ की भूमिका अहम होती है. कई सारे कारकों से बोर्ड को यह विश्वास हो गया कि उस यूज़र का निशाना चीनी लोग नहीं बल्कि चीन देश था.
पोस्ट का वह हिस्सा जिसमें कथित तौर पर Facebook के नियमों का उल्लंघन किया गया था, उसमें हांगकांग में चीन की वित्तीय पॉलिसी को “प्रताड़ना” या “दमन” कहा गया था न कि म्यांमार में रह रहे व्यक्तियों या चीनी लोगों द्वारा किए गए किसी काम को. बोर्ड के दोनों अनुवादकों ने संकेत दिया कि इस मामले में “ta-yote” शब्द, उस देश के लिए उपयोग किया गया था. जब उनसे पूछा गया कि क्या इस संदर्भ में किसी अस्पष्टता की कोई संभावना है, तो अनुवादकों ने बताया कि वे अपने निष्कर्ष के बारे में पूरी तरह आश्वस्त हैं. बोर्ड के अनुवादकों ने यह भी बताया कि उस पोस्ट में ऐसे शब्द हैं, जिनका उपयोग आम तौर पर म्यांमार की सरकार और चीनी दूतावास एक दूसरे को संबोधित करने के लिए करते हैं. इसके अलावा, उस पोस्ट को पाँच लाख लोगों ने देखा और 6000 से ज़्यादा लोगों ने शेयर किया लेकिन एक भी यूज़र ने उसकी रिपोर्ट नहीं की. लोगों के कमेंट से भी उस पोस्ट का लहज़ा राजनैतिक विचार-विमर्श वाला लगा.
चूँकि उस पोस्ट में लोगों को उनकी नस्लीयता, जाति या राष्ट्रीय मूल के आधार पर निशाना नहीं बनाया गया था बल्कि वह एक देश पर लक्षित थी, इसलिए बोर्ड ने पाया कि वह Facebook के नफ़रत फैलाने वाली भाषा से जुड़े कम्युनिटी स्टैंडर्ड का उल्लंघन नहीं कर रही थी.
ओवरसाइट बोर्ड का फ़ैसला
ओवरसाइट बोर्ड ने Facebook के कंटेंट को हटाने के फ़ैसले को बदल दिया है और पोस्ट को रीस्टोर करने के लिए कहा है.
पॉलिसी से जुड़े सुझाव के कथन में बोर्ड ने कहा कि Facebook:
- सुनिश्चित करे कि आंतरिक रूप से लागू किए जाने वाले नियम उसी भाषा में उपलब्ध हों, जिस भाषा में कंटेंट मॉडरेटर कंटेंट का रिव्यू करते हैं. जहाँ प्राथमिकता देना ज़रूरी हो, वहाँ Facebook को सबसे पहले उन संदर्भों पर ध्यान देना चाहिए, जहाँ मानवाधिकारों का हनन होने के खतरे सबसे ज़्यादा हों.
*केस के सारांश से केस का ओवरव्यू पता चलता है और आगे के किसी फ़ैसले के लिए इसको आधार नहीं बनाया जा सकता है.
केस का पूरा फ़ैसला
1. फ़ैसले का सारांश
ओवरसाइट बोर्ड ने Facebook के नफ़रत फैलाने वाली भाषा से जुड़े कम्युनिटी स्टैंडर्ड के तहत कंटेंट हटाने के उसके फ़ैसले को बदल दिया है. बोर्ड ने पाया कि उस पोस्ट में नफ़रत फैलाने वाली भाषा नहीं थी.
2. केस का विवरण
अप्रैल 2021 में शायद म्यांमार में रहने वाले एक Facebook यूज़र ने अपनी टाइमलाइन पर बर्मी भाषा में एक पोस्ट लिखी थी. उस पोस्ट में 1 फ़रवरी 2021 को म्यांमार में हुए तख्तापलट के बाद म्यांमार की सेना के वित्तीय स्रोतों को सीमित करने के तरीकों के बारे में चर्चा की गई थी. उसमें प्रस्ताव दिया गया था कि कर से होने वाली आय, तख्तापलट के विरोधी जनप्रतिनिधियों (सांसदों) के समूह Committee Representing Pyidaungsu Hlutaw (CRPH) को दी जानी चाहिए. पोस्ट को लगभग 5,00,000 लोगों ने देखा था, उस पर लगभग 6,000 लोगों ने रिएक्शन दिया था और उसे लगभग 6,000 बार शेयर किया गया था. एक भी Facebook यूज़र ने उस पोस्ट की रिपोर्ट नहीं की.
Facebook ने उस यूज़र की पोस्ट के कथित उल्लंघन करने वाले हिस्से का अनुवाद इस तरह किया: “Hong Kong people, because the fucking Chinese tortured them, changed their banking to UK, and now (the Chinese) they cannot touch them.” (“चूतिए चीनियों ने हांगकांग के लोगों को इतना प्रताड़ित किया कि उन्होंने अपनी बैंकिंग साझेदारी यूके के साथ कर ली और अब वे (चीनी) उन्हें छू भी नहीं सकते.”) पोस्ट किए जाने के एक दिन बाद Facebook ने उस पोस्ट को अपने नफ़रत फैलाने वाली भाषा से जुड़े कम्युनिटी स्टैंडर्ड के तहत ‘श्रेणी 2’ की नफ़रत फैलाने वाली भाषा मानकर हटा दिया. यह कम्युनिटी स्टैंडर्ड किसी व्यक्ति या लोगों के समूह को उनकी नस्लीयता, जाति या राष्ट्रीय मूल के आधार पर निशाना बनाने वाले ऐसे कंटेंट को प्रतिबंधित करता है जिसमें “अभद्र शब्द या अपमानित करने के उद्देश्य से कहे जाने वाले वाक्यांश” शामिल होते हैं.
Facebook के अनुसार उस पोस्ट का एक री-शेयर “किसी सैंपल के हिस्से के तौर पर अपने आप चुना गया और क्लासिफ़ायर ट्रेनिंग में उपयोग करने के लिए किसी ह्यूमन रिव्यूअर के पास भेजा गया.” इसमें Facebook उल्लंघन करने वाले और उल्लंघन नहीं करने वाले कंटेंट के उदाहरणों के डेटा सेट बनाकर अपनी ऑटोमेटेड डिटेक्शन और एन्फ़ोर्समेंट प्रोसेस को इसकी ट्रेनिंग देता है कि वे यह पहचान कर सकें कि कंटेंट Facebook की पॉलिसी का उल्लंघन करता है या नहीं. रिव्यूअर ने पाया कि उस शेयर की गई पोस्ट में नफ़रत फैलाने वाली भाषा से जुड़े कम्युनिटी स्टैंडर्ड का उल्लंघन किया गया था. हालाँकि उस प्रोसेस का उद्देश्य क्लासिफ़ायर को ट्रेनिंग देने के लिए कंटेंट के सेट तैयार करना था, लेकिन जैसे ही यह पता चला कि शेयर की गई पोस्ट कम्युनिटी स्टैंडर्ड का उल्लंघन करती है, उसे डिलीट कर दिया गया.
चूँकि यह पता लग गया था कि शेयर की गई पोस्ट में Facebook के नियमों का उल्लंघन हुआ है, इसलिए एक “एडमिनिस्ट्रेटिव एक्शन बॉट” ने अपने आप ही उसकी मूल पोस्ट को रिव्यू करने के लिए उठा लिया. Facebook ने समझाया कि एडमिनिस्ट्रेटिव एक्शन बॉट Facebook का एक आंतरिक तरीका होता है, जो कंटेंट का किसी भी तरह का मूल्यांकन नहीं करता है, बल्कि वह “मनुष्यों या मशीनों द्वारा लिए गए फ़ैसलों के आधार पर पूरे एन्फ़ोर्समेंट सिस्टम में कई एक्शन लेता है.” इसके बाद दो ह्यूमन रिव्यूअर ने मूल पोस्ट का विश्लेषण किया और दोनों ने माना कि उसमें “श्रेणी 2” की नफ़रत फैलाने वाली भाषा थी. उस कंटेंट को हटा दिया गया. उस यूज़र ने Facebook से उस कंटेंट को हटाने के फ़ैसले के विरुद्ध अपील की, जहाँ एक चौथे ह्यूमन रिव्यूअर ने उसे हटाने का समर्थन किया. Facebook के अनुसार “इस मामले में सभी कंटेंट रिव्यूअर Facebook की बर्मी भाषा की कंटेंट रिव्यू टीम के मेंबर थे.” इसके बाद यूज़र ने अपनी अपील ओवरसाइट बोर्ड को सबमिट की.
3. प्राधिकार और दायरा
बोर्ड को उस यूज़र के अपील करने के बाद Facebook के फ़ैसले का रिव्यू करने का अधिकार है, जिसकी पोस्ट हटा दी गई थी (चार्टर अनुच्छेद 2, सेक्शन 1; उपनियम अनुच्छेद 2, सेक्शन 2.1). बोर्ड उस फ़ैसले को कायम रख सकता है या उसे बदल सकता है (चार्टर अनुच्छेद 3, सेक्शन 5). बोर्ड के फ़ैसले बाध्यकारी होते हैं और उनमें पॉलिसी से जुड़ी सलाह के कथनों के साथ सुझाव भी शामिल हो सकते हैं. ये सुझाव बाध्यकारी नहीं होते हैं, लेकिन Facebook को उनका जवाब देना होगा (चार्टर अनुच्छेद 3, सेक्शन 4). पारदर्शी और नैतिक तरीके से विवादों को सुलझाने के लिए यह बोर्ड एक स्वतंत्र शिकायत निवारण प्रणाली है.
4. प्रासंगिक स्टैंडर्ड
ओवरसाइट बोर्ड ने इन स्टैंडर्ड पर विचार करते हुए अपना फ़ैसला दिया है:
I. Facebook के कम्युनिटी स्टैंडर्ड
Facebook के कम्युनिटी स्टैंडर्ड नफ़रत फैलाने वाली भाषा को “लोगों की संरक्षित विशेषताओं – नस्ल, जाति, राष्ट्रीय मूल, धार्मिक मान्यता, यौन रुचि, सामाजिक पहचान, लिंग या लैंगिक पहचान और गंभीर रोग या अक्षमता के आधार पर उन पर सीधे हमले” के रूप में परिभाषित करते हैं. “श्रेणी 2” के अंतर्गत आने वाले प्रतिबंधित कंटेंट में गालियाँ शामिल होती हैं, जिनकी परिभाषा इस प्रकार है: “अपमान करने के उद्देश्य से कहे जाने वाले अभद्र शब्द या वाक्यांश जैसे कि: साले, कुतिया, मादरचोद.”
II. Facebook के मूल्य
Facebook के मूल्यों की रूपरेखा कम्युनिटी स्टैंडर्ड के परिचय सेक्शन में दी गई है. “अभिव्यक्ति” के महत्व को “सर्वोपरि” बताया गया है:
हमारे कम्युनिटी स्टैंडर्ड का लक्ष्य हमेशा एक ऐसा प्लेटफ़ॉर्म बनाना रहा है, जहाँ लोग अपनी बात रख सकें और अपनी भावनाओं को व्यक्त कर सकें. […] हम चाहते हैं कि लोग अपने लिए महत्व रखने वाले मुद्दों पर खुलकर बातें कर सकें, भले ही कुछ लोग उन बातों पर असहमति जताएँ या उन्हें वे बातें आपत्तिजनक लगें.
Facebook "अभिव्यक्ति” को चार मूल्यों के मामले में सीमित करता है, जिनमें से दो यहाँ प्रासंगिक हैं.
“सुरक्षा”: हम Facebook को एक सुरक्षित जगह बनाने के लिए प्रतिबद्ध हैं. धमकी भरी अभिव्यक्ति से लोगों में डर, अलगाव की भावना आ सकती या दूसरों के विचार दब सकते हैं और Facebook पर इसकी परमिशन नहीं है.
“गरिमा” : हमारा मानना है कि सभी लोगों को एक जैसा सम्मान और एक जैसे अधिकार मिलने चाहिए. हम उम्मीद करते है कि लोग एक-दूसरे की गरिमा का ध्यान रखेंगे और दूसरों को परेशान नहीं करेंगे या नीचा नहीं दिखाएँगे.
III. मानवाधिकार स्टैंडर्ड
बिज़नेस और मानव अधिकारों के बारे में संयुक्त राष्ट्र संघ के मार्गदर्शक सिद्धांत (UNGP), जिन्हें 2011 में संयुक्त राष्ट्र संघ की मानव अधिकार समिति का समर्थन मिला है, वे प्राइवेट बिज़नेस की मानवाधिकारों से जुड़ी ज़िम्मेदारियों का स्वैच्छिक ढांचा तैयार करते हैं. 2021 में Facebook ने मानवाधिकारों से जुड़ी अपनी कॉर्पोरेट पॉलिसी की घोषणा की, जिसमें उन्होंने UNGP के अनुसार मानवाधिकारों का ध्यान रखने की अपनी प्रतिज्ञा को दोहराया. इस केस में बोर्ड ने इन मानवाधिकार स्टैंडर्ड को ध्यान में रखते हुए विश्लेषण किया:
- अभिव्यक्ति की स्वतंत्रता: अनुच्छेद 19, नागरिक और राजनीतिक अधिकारों पर अंतरराष्ट्रीय प्रतिज्ञापत्र ( ICCPR), सामान्य टिप्पणी सं. 34, मानव अधिकार समिति, 2011
- बिज़नेस के उत्तरदायित्व: बिज़नेस, मानवाधिकार और विवादों से प्रभावित क्षेत्र: बढ़ा-चढ़ाकर लिए गए एक्शन की रिपोर्ट ( A/75/212) को लेकर, मानवाधिकार और अंतरराष्ट्रीय निगम और अन्य व्यावसायिक उद्यम के मुद्दे पर संयुक्त राष्ट्र संघ का कार्यकारी समूह
5. यूज़र का कथन
यूज़र ने अपनी अपील में बोर्ड को बताया कि उन्होंने इस कंटेंट को “क्रूर सैन्य शासन को खत्म करवाने” और म्यांमार के लोकतांत्रिक नेताओं को सलाह देने के लिए पोस्ट किया. यूज़र ने म्यांमार सैन्य शासन को मिल रही फ़ंडिंग पर रोक लगाने की आवश्यकता को भी दोहराया. वह यूज़र स्वयं को “एक्टिविस्ट” बताता है और उन्हें अंदेशा है कि म्यांमार सैन्य शासन के मुखबिरों ने ही उनकी पोस्ट की रिपोर्ट की है. यूज़र ने यह भी कहा कि “म्यांमार की भाषा समझने वाले किसी व्यक्ति” को उनकी पोस्ट का रिव्यू करना चाहिए.
6. Facebook के फ़ैसले का स्पष्टीकरण
Facebook ने उस कंटेंट को “श्रेणी 2” हमला मानते हुए नफ़रत फैलाने वाली भाषा से जुड़े कम्युनिटी स्टैंडर्ड के तहत निकाला है, ख़ास तौर से इसकी उस पॉलिसी के उल्लंघन के लिए, जो लोगों को उनकी जाति, नस्ल और/या राष्ट्रीय मूल के आधार पर बदनाम करते हुए कोसने वाले शब्दों से टार्गेट करने पर रोक लगाती है. Facebook के अनुसार कथित रूप से उल्लंघन करने वाले कंटेंट को चीनी लोगों पर हमला माना गया था.
उस कंटेंट में बर्मी भाषा में एक वाक्यांश “$တရုတ်” शामिल था, जिसका Facebook की क्षेत्रीय टीम ने “fucking Chinese” (चूतिए चीनी) (या “sout ta-yote") के रूप में अनुवाद किया. Facebook की क्षेत्रीय टीम ने आगे बताया कि “$” का उपयोग “စောက်” या “sout” के संक्षिप्त रूप की तरह किया जा सकता है, जिसका अनुवाद “fucking” (चूतिए) है. Facebook की टीम के अनुसार “ta-yote” शब्द को “सांस्कृतिक और भाषाई रूप से चीन देश और चीनी लोगों की पहचान/ के अर्थ, दोनों के ही रूप में समझा जाता है.” Facebook ने संरक्षित विशेषताओं के आधार पर लोगों को निशाना बनाने वाली भेदभावपूर्ण भाषा के बारे में और उन विशेषताओं से जुड़ी अवधारणाओं के बारे में अपने मॉडरेटर को उपलब्ध करवाए जाने वाले प्रासंगिक गोपनीय आंतरिक मार्गदर्शन या आंतरिक रूप से लागू किए जाने वाले स्टैंडर्ड बोर्ड को सौंपे.
Facebook ने अपने फ़ैसले से जुड़े तर्क में यह भी उल्लेख किया कि फ़रवरी 2021 में हुए तख्तापलट के बाद म्यांमार में “चीनी विरोधी भावनाएँ भड़कने की ख़बरें मिलीं थीं” और यह कि “म्यांमार के यांगून में चीन की ओर से वित्तपोषित कपड़ों की एक फ़ैक्टरी में कथित रूप से हुई आगजनी के हमले में कई चीनी लोग घायल हुए, फंसे या मारे गए थे.” बोर्ड की ओर से पूछे गए एक सवाल के जवाब में Facebook ने बताया कि इस पोस्ट के बारे में उनकी म्यांमार के सैन्य शासन से किसी तरह की बातचीत नहीं हुई थी.
Facebook ने बताया कि “ta-yote” शब्द की प्रकृति और इस तथ्य को देखते हुए कि उस यूज़र ने “साफ़ तौर पर नहीं बताया था कि यह शब्द चीन देश/चीनी सरकार के संदर्भ में है,” Facebook ने यह तय किया कि “वह यूज़र कहीं न कहीं चीनी लोगों के बारे में बात कर रहा है.” जैसा कि Facebook ने बताया था कि उस पोस्ट को हटाया जाना नफ़रत फैलाने वाली भाषा से जुड़े उनके कम्युनिटी स्टैंडर्ड के अनुसार था.
Facebook ने यह भी बताया कि उसे हटाना “गरिमा” और “सुरक्षा” के उसके मूल्यों के अनुरूप था, वहीं इसमें “अभिव्यक्ति” के महत्व को संतुलित रखने का ध्यान रखा गया था. Facebook के अनुसार चीनी लोगों को बदनाम करते हुए उन्हें कोसने से “उन लोगों को नुकसान पहुँच सकता है” और यह “अपमानजनक, अमानवीय, और उनकी गरिमा को ठेस पहुँचाने वाला है.”
Facebook ने तर्क दिया कि उसका फ़ैसला अंतरराष्ट्रीय मानवाधिकार स्टैंडर्ड का पालन करते हुए लिया गया था. Facebook ने बताया कि उनका फ़ैसला अंतरराष्ट्रीय मानवाधिकार कानून की वैधता, वैध उद्देश्य के साथ आवश्यकता और समानुपात की शर्तों को पूरा करता है. Facebook के अनुसार उनकी पॉलिसी कम्युनिटी स्टैंडर्ड में “बड़ी आसानी से उपलब्ध” है और “उस यूज़र ने जिन शब्दों का चयन किया है, वे पूरी तरह से अपमानजनक शब्दों के प्रतिबंध के दायरे में आते हैं.” साथ ही उस कंटेंट को हटाने का फ़ैसला “अन्य लोगों के अधिकारों का हनन रोकने और उन्हें भेदभाव से” बचाने के लिहाज़ से एकदम सही था. ज़्वार्टे पिएट से संबंधित बोर्ड के फ़ैसले 2021-002-FB-UA का हवाला देते हुए बताया कि कुल मिलाकर उस कंटेंट को हटाने का इनका फ़ैसला इसलिए “आवश्यक और समानुपाति” था, क्योंकि “चीनी लोगों के खिलाफ़ अभद्र भाषा वाले कंटेंट का बढ़ना ‘एक ऐसा माहौल बनाता है जहाँ हिंसा होने और समाज में भेदभाव फिर से शुरू होने की आशंका और ज़्यादा हो जाती है’.” Facebook ने बताया कि दोनों ही मामले एक समान थे क्योंकि “दोनों में ही लोगों की जाति या नस्लीयता के आधार पर उनके लिए नफ़रत फैलाने वाली भाषा का उपयोग किए जाने की बात थी.”
7. थर्ड पार्टी सबमिशन
इस केस के संबंध में, ओवरसाइट बोर्ड को लोगों की ओर से 10 कमेंट मिले. जिनमें से पाँच कमेंट एशिया पैसिफ़िक और ओशिनिया, ख़ास तौर से म्यांमार से आए थे, वहीं पाँच कमेंट अमेरिका और कनाडा से किए गए थे. बोर्ड को मिले कमेंट में मानवाधिकार संरक्षकों और नागरिक समाज संगठनों समेत अन्य स्टेकहोल्डर के कमेंट शामिल थे, जो म्यांमार में अभिव्यक्ति की स्वतंत्रता और नफ़रत फैलाने वाली भाषा को लेकर किए गए थे.
सबमिट किए गए कमेंट में “sout ta-yote” शब्द का अनुवाद और विश्लेषण; क्या उस कंटेंट से चीन या चीनी लोगों पर आक्षेप लगाया गया था; क्या वह पोस्ट एक राजनीतिक भाषण की तरह थी, जिसे म्यांमार में चल रहे संघर्ष के संदर्भ में संरक्षित किया जाना चाहिए था; फ़रवरी 2021 में हुए तख्तापलट के बाद क्या म्यांमार में चीनी विरोधी भावनाएँ भड़क उठी हैं; चीन और म्यांमार सैन्य शासन के बीच के संबंधों; और Facebook की कंटेंट मॉडरेशन के तरीकों, ख़ास तौर पर बर्मी भाषा के कंटेंट के लिए Facebook के ऑटोमेशन टूल्स के उपयोग, प्रशिक्षण और जाँच-परख समेत अन्य विषयों पर जानकारी थी.
इस केस को लेकर लोगों की ओर से सबमिट किए गए कमेंट देखने के लिए कृपया यहाँ पर क्लिक करें.
8. ओवरसाइट बोर्ड का विश्लेषण
यह केस राजनीतिक भाषण का सम्मान करते हुए नफ़रत फैलाने वाली भाषा से यूज़र्स को बचाने के लिए बनाई गई कंटेंट पॉलिसी के तहत कार्रवाई करते समय संदर्भ के महत्व को उजागर करता है. यह फ़रवरी 2021 के तख्तापलट और कम्युनिकेशन के माध्यम के रूप में Facebook के महत्व के कारण म्यांमार में विशेष रूप से प्रासंगिक है. बोर्ड ने इस सवाल पर ध्यान दिया कि क्या इन तीन दृष्टिकोणों से इस कंटेंट को रीस्टोर कर दिया जाना चाहिए: Facebook कम्युनिटी स्टैंडर्ड; इस कंपनी के मूल्य; और मानवाधिकारों से जुड़ी इनकी ज़िम्मेदारियाँ.
8.1 कम्युनिटी स्टैंडर्ड का अनुपालन
बोर्ड को समझ में आया कि इस कंटेंट को रीस्टोर करना नफ़रत फैलाने वाली भाषा से जुड़े Facebook के कम्युनिटी स्टैंडर्ड के अनुरूप है. Facebook की पॉलिसी “बदनाम करने के इरादे से उपयोग किए गए अभद्र शब्दों” पर रोक लगाती है, जिनसे किसी व्यक्ति या लोगों को जाति, नस्ल या राष्ट्रीय मूल के आधार पर निशाना बनाया जाता है. बोर्ड ने यह निष्कर्ष निकाला है कि वह पोस्ट के ज़रिए लोगों को निशाना नहीं बनाया गया था, बल्कि हांगकांग को लेकर चीनी सरकार की नीति को निशाना बनाया गया था, जिसे म्यांमार में चीनी सरकार की भूमिका पर बहस करने के संदर्भ में बनाया गया था.
लोगों की ओर से मिले कमेंट के अलावा बोर्ड ने उस टेक्स्ट के दो तरह के अनुवाद भी माँगे. इसमें म्यांमार के निवासी, बर्मी बोलने वाले व्यक्ति का अनुवाद और म्यांमार से बाहर रहने वाले बर्मी बोलने वाले व्यक्ति का अनुवाद शामिल था. लोगों के कमेंट में और बोर्ड के अनुवादकों ने बताया कि बर्मी भाषा में इस शब्द का उपयोग किसी राज्य और उस राज्य के लोग, दोनों के संदर्भ में किया जाता है. इसलिए उस मतलब से जुड़े इरादे को समझने के लिए संदर्भ बहुत महत्वपूर्ण है. यह नफ़रत फैलाने वाली भाषा से जुड़ी Facebook की पॉलिसी के तहत कार्रवाई करने के लिए ख़ास तौर से प्रासंगिक है. उस कंटेंट को जब हटाया गया था, तब नफ़रत फैलाने वाली भाषा से जुड़े कम्युनिटी स्टैंडर्ड में बताया गया था कि यह राष्ट्रीय मूल के आधार पर लोगों पर किए जाने वाले हमले रोकता है, लेकिन देशों के खिलाफ़ होने वाले हमलों पर रोक नहीं लगाता है.
यह पोस्ट चीनी लोगों को उनकी नस्ल, जाति या राष्ट्रीय मूल के आधार पर निशाना नहीं बना रही थी, इस फ़ैसले पर पहुँचने के लिए बोर्ड ने कई बातों पर गौर किया. पहली बात कि व्यापक रूप से देखें तो यह पोस्ट सैन्य शासन के साथ वित्तीय सहभागिता पर रोक लगाने के तरीकों और CRPH को वित्तीय सहायता उपलब्ध करवाने का सुझाव देती है. दूसरी बात कि पोस्ट का कथित रूप से उल्लंघन करने वाला हिस्सा हांगकांग में चीन की वित्तीय नीतियों को “प्रताड़ना” या “दमन” के रूप में संदर्भित करता है, न कि म्यांमार में लोगों या चीनी लोगों के कार्यों के रूप में. तीसरी बात कि हालाँकि बड़े पैमाने पर शेयर की गई किसी पोस्ट की एक भी रिपोर्ट न होने का मतलब हर बार यह नहीं होता कि उससे कोई उल्लंघन नहीं हुआ है, फिर भी 500,000 से ज़्यादा लोगों ने इसे देखा और 6,000 से ज़्यादा लोगों ने इस पोस्ट को शेयर किया, वहीं किसी भी यूज़र ने इसकी रिपोर्ट नहीं की. चौथी बात कि बोर्ड ने जिन अनुवादकों की सलाह ली, उन दोनों ने यह संकेत दिया कि भले ही उस शब्द का उपयोग किसी राज्य और उसके लोगों, दोनों के संदर्भ में किया जाता हो, फिर भी इस मामले में वह राज्य को संदर्भित करता है. जब इस संदर्भ को लेकर किसी भी संभावित अस्पष्टता पर सवाल किया गया, तो अनुवादकों ने कोई संदेह नहीं जताया. पाँचवी बात कि दोनों अनुवादकों ने बताया कि उस पोस्ट में म्यांमार सरकार और चीनी दूतावास द्वारा एक-दूसरे को संबोधित करने के लिए आम तौर पर उपयोग किए जाने वाले शब्द शामिल हैं. और आखिर में, लोगों ने अपने कमेंट में आम तौर पर पोस्ट के पूरे आशय को बड़े पैमाने पर एक राजनीतिक चर्चा के रूप में बताया.
इसलिए, इस बात को देखते हुए कि अभद्र भाषा के ज़रिए लोगों को उनकी नस्लीयता, जाति या राष्ट्रीय मूल के आधार पर निशाना नहीं बनाया गया था, बल्कि एक देश को निशाना नहीं बनाया गया था, बोर्ड ने यह निष्कर्ष निकाला कि इससे Facebook के नफ़रत फैलाने वाली भाषा से जुड़े कम्युनिटी स्टैंडर्ड का उल्लंघन नहीं होता है. यह सुनिश्चित करना महत्वपूर्ण है कि संरक्षित विशेषताओं के आधार पर लोगों को टार्गेट करने से जुड़े प्रतिबंधों को इस तरह से नहीं समझाया जाना चाहिए जो सरकारों या संस्थानों को आलोचना से बचाए. बोर्ड मानता है कि चीनी विरोधी नफ़रत फैलाने वाली भाषा एक गंभीर चिंता है, लेकिन इस पोस्ट में चीन देश का संदर्भ दिया गया है.
बोर्ड Facebook के इस तर्क से असहमत है कि इस कंटेंट को हटाने का उसका फ़ैसला, केस के फ़ैसले 2021-002-FB-UA में बोर्ड के तर्क का पालन करते हुए लिया गया था (जिसमें बोर्ड ने काले चेहरे में लोगों का चित्रण हटाने का फ़ैसला कायम रखा था). उस केस में Facebook का काले चेहरे में लोगों के चित्रण के विरुद्ध एक नियम था और बोर्ड ने Facebook को ऐसे कंटेंट पर उस नियम को लागू करने की परमिशन दी थी, जिसमें ज़्वार्टे पिएट के काले चेहरे वाले चित्रण शामिल थे. यहाँ, इसके विपरीत पोस्ट का संदर्भ दर्शाता है कि उपयोग की गई भाषा से Facebook के नियमों का बिल्कुल भी उल्लंघन नहीं हुआ.
इस केस के संबंध में बोर्ड के विचार-विमर्श के दौरान, Facebook ने कुछ परिस्थितियों में संरक्षित विशेषताओं से संबंधित "अवधारणाओं" को प्रतिबंधित करने के अपने तरीके के बारे में और जानकारी देने के लिए नफ़रत फैलाने वाली भाषा से जुड़े अपने कम्युनिटी स्टैंडर्ड को अपडेट किया. इस नए नियम में बताया गया है कि Facebook को एन्फ़ोर्समेंट के लिए "अतिरिक्त जानकारी और/या संदर्भ की ज़रूरत होती है" और यह कि यूज़र्स को "संरक्षित विशेषताओं से जुड़ी अवधारणाओं, संस्थानों, विचारों, प्रथाओं या विश्वासों पर हमला करने वाला कंटेंट पोस्ट नहीं करना चाहिए, जिनकी उस संरक्षित विशेषता से जुड़े लोगों के विरुद्ध आने वाले समय में शारीरिक नुकसान, धमकी या भेदभाव में सहायक होने की संभावना होती है."
जब Facebook ने इस कंटेंट को हटाया तब यह कम्युनिटी स्टैंडर्ड का हिस्सा नहीं था और Facebook ने बोर्ड को यह तर्क नहीं दिया कि उसने अपडेट किए गए इस स्टैंडर्ड के तहत कंटेंट को हटा दिया था, इसलिए, बोर्ड ने इस केस में इस पॉलिसी के लागू होने का विश्लेषण नहीं किया. हालाँकि, बोर्ड यह मानता है कि "अवधारणाओं, संस्थानों, विचारों, प्रथाओं या विश्वासों" में राजनीतिक भाषण सहित कई तरह की अभिव्यक्तियाँ शामिल हो सकती हैं.
8.2 Facebook के मूल्यों का अनुपालन
बोर्ड इस निष्कर्ष पर पहुँचा कि इस कंटेंट को रीस्टोर करना Facebook के मूल्यों के अनुरूप है. हालाँकि Facebook के "गरिमा" और "सुरक्षा" के मूल्य महत्वपूर्ण हैं, ख़ास तौर पर म्यांमार में फ़रवरी 2021 में हुए तख्तापलट के संदर्भ में, लेकिन इस कंटेंट से इन मूल्यों के लिए ऐसा कोई जोखिम पैदा नहीं हुआ कि यह "अभिव्यक्ति" के मूल्य के हटाए जाने को सही साबित करेगा. बोर्ड ने यह भी पाया कि पोस्ट में ऐसी राजनीतिक भाषा है, जो "अभिव्यक्ति" के मूल्य में सबसे महत्वपूर्ण है.
8.3 Facebook की मानवाधिकार से जुड़ी ज़िम्मेदारियों का अनुपालन
बोर्ड इस निष्कर्ष पर पहुँचा कि कंटेंट को रीस्टोर करना, एक बिज़नेस के तौर पर Facebook की मानवाधिकार ज़िम्मेदारियों से संगत है. Facebook ने बिज़नेस और मानव अधिकारों के बारे में संयुक्त राष्ट्र संघ के मार्गदर्शक सिद्धांत (UNGP) के तहत मानवाधिकारों का सम्मान करने के लिए स्वयं को प्रतिबद्ध रखा है. इसकी कॉर्पोरेट मानवाधिकार पॉलिसी में बताया गया है कि इसमें नागरिक और राजनीतिक अधिकारों पर अंतरराष्ट्रीय प्रतिज्ञापत्र (ICCPR) शामिल है.
ICCPR के अनुच्छेद 19 में अभिव्यक्ति की विस्तृत सुरक्षा का प्रावधान है. यह सुरक्षा सार्वजनिक संस्थाओं सहित राजनीतिक अभिव्यक्ति और विचार-विमर्श के लिए "खास तौर पर अधिक" है ( सामान्य कमेंट 34, पैरा. 38). अनुच्छेद 19 में वैधानिकता, मान्य होने तथा आवश्यकता और आनुपातिकता के तीन हिस्सों में होने वाले टेस्ट में खरा उतरने के लिए अभिव्यक्ति की स्वतंत्रता पर देश के प्रतिबंधों को आवश्यक बनाया गया है. बोर्ड ने यह निष्कर्ष निकाला कि इस टेस्ट के तहत Facebook के एक्शन एक बिज़नेस के तौर पर इसकी ज़िम्मेदारियों को पूरा नहीं करते.
I. वैधानिकता (नियमों की स्पष्टता और सुलभता)
अंतरराष्ट्रीय मानवाधिकार कानून के तहत वैधानिकता के सिद्धांत के अनुसार अभिव्यक्ति पर रोक लगाने के लिए देशों के द्वारा उपयोग किए जाने वाले नियम स्पष्ट और आसानी से उपलब्ध होने चाहिए ( सामान्य कमेंट 34, पैरा. 25). अभिव्यक्ति को प्रतिबंधित करने वाले नियमों में "उन लोगों के लिए पर्याप्त मार्गदर्शन भी होना चाहिए जिन पर इन्हें लागू करने ज़िम्मेदारी है ताकि वे यह पता लगा सकें कि किस तरह की अभिव्यक्ति को उचित रूप से प्रतिबंधित किया गया है और किसे नहीं" ( सामान्य कमेंट 34, पैरा. 25).
नफ़रत फैलाने वाली भाषा से जुड़ा कम्युनिटी स्टैंडर्ड ऐसी अभद्र भाषा को प्रतिबंधित करता है जो लोगों को उनकी नस्लीयता, जाति या राष्ट्रीय मूल के आधार पर टार्गेट करती है. Facebook ने बोर्ड को बताया कि "बड़े पैमाने पर उद्देश्य का निर्धारण करने में आने वाली समस्याओं के कारण, Facebook तब तक ‘fucking Chinese’ (‘चूतिए चीनी’) वाक्यांश को चीनी लोगों और चीन देश या उसकी सरकार दोनों के बारे में कहने के रूप में मानता है, जब तक यूज़र इस बारे में अतिरिक्त संदर्भ उपलब्ध नहीं करवाता कि यह पूरी तरह देश या सरकार के बारे में कहा गया है." कंटेंट को हटाने की चूक से संबंधित पॉलिसी कम्युनिटी स्टैंडर्ड में नहीं बताई गई है.
बोर्ड ने यह निष्कर्ष निकाला कि यूज़र ने अतिरिक्त संदर्भ दिया है कि पोस्ट किसी राज्य या देश को संदर्भित करती है, जैसा कि बोर्ड के नफ़रत फैलाने वाली भाषा से जुड़े कम्युनिटी स्टैंडर्ड के विश्लेषण में उल्लेख किया गया है (ऊपर बताया गया सेक्शन 8.1). बोर्ड के अनुवादकों, पब्लिक कमेंट सबमिट करने वाले लोगों और पोस्ट को देखने वाले तथा उसकी रिपोर्ट नहीं करने वाले 5,00,000 से ज़्यादा यूज़र्स में से शायद कई यूज़र्स की तुलना में कई Facebook रिव्यूअर्स ने कोई दूसरा ही निष्कर्ष निकाला. इस भिन्नता को देखते हुए, बोर्ड Facebook द्वारा कंटेंट मॉडरेटर्स को दिए गए आंतरिक मार्गदर्शन, रिसोर्स और ट्रेनिंग की पर्याप्तता पर सवाल उठाता है.
बोर्ड के इस निष्कर्ष को देखते हुए कि यूज़र ने Facebook की नफ़रत फैलाने वाली भाषा से जुड़ी पॉलिसी का उल्लंघन नहीं किया, बोर्ड ने यह तय नहीं किया है कि कंटेंट को हटाने की गैर-सार्वजनिक पॉलिसी वैधानिकता के सिद्धांत का उल्लंघन करती है या नहीं. हालाँकि, बोर्ड इस बात से चिंतित है कि जब अभद्र भाषा की व्याख्या लोगों या देश को निशाना बनाने के रूप में की जा सकती हो, तब कंटेंट को हटाने में चूक होने की पॉलिसी, कम्युनिटी स्टैंडर्ड में स्पष्ट नहीं है. सामान्य तौर पर, Facebook को ऐसा सार्वजनिक आंतरिक मार्गदर्शन देना चाहिए जो लोगों को बताए जाने वाले कम्युनिटी स्टैंडर्ड की व्याख्या को बदल दे.
II. वैधानिक लक्ष्य
किसी भी देश के अभिव्यक्ति से संबंधित प्रतिबंध में ICCPR में सूचीबद्ध वैधानिक लक्ष्यों में से किसी एक का अनुसरण किया जाना चाहिए. इनमें “दूसरों के अधिकार” शामिल हैं. Facebook के अनुसार, नफ़रत फैलाने वाली भाषा से जुड़ी इसकी पॉलिसी का उद्देश्य यूज़र्स को भेदभाव से बचाना है. बोर्ड इससे सहमत है कि यह एक वैधानिक लक्ष्य है.
III. आवश्यकता और आनुपातिकता
अंतरराष्ट्रीय मानवाधिकार कानून के तहत आवश्यकता और आनुपातिकता के सिद्धांत के अनुसार यह ज़रूरी है कि अभिव्यक्ति की स्वतंत्रता से संबंधित प्रतिबंध "उनके सुरक्षात्मक कार्य को सही तरीके से पूरा करने वाले होने चाहिए; उनसे उन लोगों के अधिकारों के साथ कम से कम हस्तक्षेप होना चाहिए, जिन्हें उन प्रतिबंधों से होने वाले सुरक्षात्मक कार्यों का लाभ मिल सकता है; उन हितों के अनुसार सही अनुपात में होने चाहिए जिनकी सुरक्षा की जानी है" ( सामान्य कमेंट 34, पैरा. 34). इस केस में बोर्ड ने कंटेंट की अपनी व्याख्या के आधार पर यह पाया कि इस पोस्ट को प्रतिबंधित करने से कोई सुरक्षात्मक कार्य पूरा नहीं होगा.
UNGP में बताया गया है कि बिज़नेस को अपनी गतिविधियों के प्रभावों का आंकलन करने के लिए जारी मानवाधिकारों से जुड़े ज़रूरी कदम उठाने चाहिए (UNGP 17) और यह स्वीकार करना चाहिए कि विवाद से प्रभावित संदर्भों में मानवाधिकारों को होने वाले नुकसान का जोखिम बढ़ गया है (UNGP 7). मानवाधिकारों और अंतरराष्ट्रीय निगमों तथा अन्य बिज़नेस इंटरप्राइज़ के विषय पर काम करने वाले संयुक्त राष्ट्र के समूह ने इस बात पर ध्यान दिया कि बिज़नेस की तत्परता से जुड़ी ज़िम्मेदारियों में कुछ परिदृश्यों में ज़्यादा जटिलता और नुकसान का जोखिम दर्शाया जाना चाहिए ( A/75/212, पैरा. 41-49). इसी तरह, केस के फ़ैसले 2021-001-FB-FBR में बोर्ड ने सुझाव दिया कि Facebook "दुनियाभर में प्रभावशाली अकाउंट से होने वाले नुकसान के जोखिमों का आंकलन करने के लिए पर्याप्त संसाधन और विशेषज्ञता सुनिश्चित करे," यह मानते हुए कि Facebook को अधिक जोखिम वाले क्षेत्रों पर ध्यान देना चाहिए.
इस मामले में, बोर्ड ने पाया कि इन बढ़ी हुई ज़िम्मेदारियों के कारण कंटेंट को हटाने में चूक नहीं होनी चाहिए क्योंकि हानिकारक कंटेंट को बने रहने देना और ऐसे कंटेंट को हटाना जिससे नुकसान होने की थोड़ी संभावना है या बिल्कुल भी संभावना नहीं है, दोनों की स्थितियाँ खतरनाक हैं. म्यांमार में नफ़रत फैलाने वाली भाषा को लेकर Facebook की चिंता बिल्कुल सही है, लेकिन उसे राजनीतिक आलोचना और अभिव्यक्ति को नहीं हटाने पर भी विशेष ध्यान देना चाहिए, जो इस केस में लोकतांत्रिक शासन का समर्थन करना है.
बोर्ड ने इस बात पर ध्यान दिया कि राष्ट्रीय मूल (इस केस में “$တရုတ်”) का उल्लेख करने वाली अभद्र भाषा का अनुमान लगाने वाली Facebook की पॉलिसी देशों को संदर्भित करती है और लोग भाषा से जुड़े कुछ संदर्भों में असंगत प्रवर्तन का कारण बन सकते हैं, जैसे कि इस संदर्भ में जहाँ दोनों के लिए एक ही शब्द का उपयोग किया गया है. बोर्ड ने इस बात पर भी ध्यान दिया कि इस कंटेंट को हटाने का प्रभाव केस से भी आगे बढ़ गया, क्योंकि Facebook ने बताया कि इसका उपयोग नफ़रत फैलाने वाली भाषा से जुड़े कम्युनिटी स्टैंडर्ड का उल्लंघन करने वाले कंटेंट के उदाहरण के रूप में क्लासिफ़ायर ट्रेनिंग में किया गया था.
ऊपर बताई गई बातों को देखते हुए, अंतरराष्ट्रीय मानवाधिकार मानक Facebook पर कंटेंट को रीस्टोर करने का समर्थन करते हैं.
9. ओवरसाइट बोर्ड का फ़ैसला
ओवरसाइट बोर्ड ने Facebook के कंटेंट हटाने के फ़ैसले को बदल दिया और उस कंटेंट को रीस्टोर करने के लिए कहा. Facebook बोर्ड के चार्टर के तहत इस फ़ैसले को समानांतर संदर्भों में लागू करने के लिए बाध्य है और अगर इस कंटेंट का क्लासिफ़ायर ट्रेनिंग में उपयोग किया गया है, तो इसे उल्लंघन नहीं करने वाले कंटेंट के रूप में चिह्नित करना चाहिए.
10. पॉलिसी से जुड़े सुझाव
Facebook को यह सुनिश्चित करना चाहिए कि आंतरिक रूप से लागू किए जाने वाले स्टैंडर्ड उसी भाषा में उपलब्ध हों, जिस भाषा में कंटेंट मॉडरेटर्स कंटेंट का रिव्यू करते हैं. जहाँ प्राथमिकता देना ज़रूरी हो, वहाँ Facebook को सबसे पहले उन संदर्भों पर ध्यान देना चाहिए, जहाँ मानवाधिकारों का हनन होने के खतरे सबसे ज़्यादा हों.
*प्रक्रिया संबंधी नोट:
ओवरसाइट बोर्ड के फ़ैसले पाँच सदस्यों के पैनल द्वारा लिए जाते हैं और बोर्ड के अधिकांश सदस्य इन पर सहमति देते हैं. ज़रूरी नहीं है कि बोर्ड के फ़ैसले उसके हर एक मेंबर की निजी राय को दर्शाएँ.
इस केस के फ़ैसले के लिए, बोर्ड की ओर से स्वतंत्र शोध को अधिकृत किया गया. एक स्वतंत्र शोध संस्थान जिसका मुख्यालय गोथेनबर्ग यूनिवर्सिटी में है और छह महाद्वीपों के 50 से भी ज़्यादा समाजशास्त्रियों की टीम के साथ ही दुनिया भर के देशों के 3,200 से भी ज़्यादा विशेषज्ञों ने सामाजिक-राजनैतिक और सांस्कृतिक संदर्भ में विशेषज्ञता मुहैया कराई है. Lionbridge Technologies, LLC कंपनी ने भाषा संबंधी विशेषज्ञता की सेवा दी, जिसके विशेषज्ञ 350 से भी ज़्यादा भाषाओं में अपनी सेवाएँ देते हैं और वे दुनिया भर के 5,000 शहरों से काम करते हैं.