विदेश

मेटा अमेरिकी मतदान से पहले नफरत फैलाने वाले भाषण पर अंकुश लगाने के लिए संघर्ष कर रहा है: शोधकर्ता

मेटा – फेसबुक और इंस्टाग्राम का मालिक – अमेरिकी चुनाव से पहले घृणास्पद भाषण को पूरी तरह से नियंत्रित करने और संबोधित करने के लिए संघर्ष कर रहा है, थॉमसन रॉयटर्स फाउंडेशन के साथ विशेष रूप से साझा किए गए शोध के अनुसार।

गैर-लाभकारी ग्लोबल विटनेस ने 6 सितंबर से 6 अक्टूबर के बीच 67 अमेरिकी सीनेट उम्मीदवारों के पेजों पर 200,000 टिप्पणियों का विश्लेषण करके परीक्षण किया कि फेसबुक राष्ट्रपति चुनाव से पहले नफरत भरे भाषण से कैसे निपट रहा था।

जब ग्लोबल विटनेस के शोधकर्ताओं ने फेसबुक के रिपोर्टिंग टूल का उपयोग करके 14 टिप्पणियों को चिह्नित किया, जिन्हें वे मेटा के “सामुदायिक मानकों” में मेटा के घृणास्पद भाषण नियमों का विशेष रूप से गंभीर उल्लंघन मानते थे, तो मेटा को प्रतिक्रिया देने में कई दिन लग गए।

शोधकर्ताओं द्वारा चिह्नित की गई टिप्पणियों में मुस्लिम और यहूदी लोगों को आपत्तिजनक रूप से संदर्भित किया गया था, और अमानवीय तरीके से एक उम्मीदवार के यौन अभिविन्यास के बारे में अनुमान लगाया गया था।

शोधकर्ताओं ने कहा कि ग्लोबल विटनेस द्वारा कंपनी को सीधे ईमेल करने के बाद मेटा ने फेसबुक से सभी 14 टिप्पणियों में से कुछ को नहीं बल्कि कुछ को हटा दिया।

परीक्षण की निगरानी करने वाले ग्लोबल विटनेस के शोधकर्ता एलेन जुडसन ने कहा, “इन पोस्टों की तुरंत समीक्षा करने में वास्तव में विफलता हुई।”

यह निष्कर्ष तब आया है जब मेटा को लंबे समय से दुनिया भर में चुनावों के दौरान एक स्वस्थ सूचना पारिस्थितिकी तंत्र को बढ़ावा नहीं देने के लिए शोधकर्ताओं, निगरानी समूहों और कानून निर्माताओं की आलोचना का सामना करना पड़ा है।

केवल अप्रैल में, यूरोपीय आयोग ने यह आकलन करने के लिए एक जांच शुरू की कि क्या मेटा ने यूरोपीय संसद चुनावों से पहले यूरोपीय संघ के ऑनलाइन सामग्री नियमों का उल्लंघन किया है।

जुडसन ने कहा कि फेसबुक द्वारा ग्लोबल विटनेस द्वारा चिह्नित की गई टिप्पणियों को संभालने का तरीका इस बात की ओर इशारा करता है कि प्लेटफॉर्म नफरत फैलाने वाले भाषण से कैसे निपटता है।

एक ईमेल में, मेटा के एक प्रवक्ता ने कहा कि ग्लोबल विटनेस का काम “टिप्पणियों के एक छोटे नमूने पर आधारित था और हमने उन्हें हटा दिया जो हमारी नीतियों का उल्लंघन करते हैं”।

प्रवक्ता ने कहा, “यह उस काम को प्रतिबिंबित नहीं करता है जो हमारी टीमें – जिसमें सुरक्षा और सुरक्षा पर काम करने वाले 40,000 लोग भी शामिल हैं – चुनाव से पहले हमारे मंच को सुरक्षित रखने के लिए कर रहे हैं।”

फेसबुक के सामुदायिक मानकों का कहना है कि ऐसी सामग्री जो “व्यक्तियों पर उनकी जाति, जातीयता, राष्ट्रीय मूल, लिंग, लिंग, लिंग पहचान, यौन अभिविन्यास, धार्मिक संबद्धता, विकलांगता या बीमारियों के आधार पर हमला करती है, उसे उल्लंघन माना जाता है”।

हालांकि यह स्पष्ट नहीं है कि कितने उपयोगकर्ता घृणास्पद भाषण के संपर्क में आए, लेकिन जुडसन ने कहा कि इसका प्रभाव बड़ा हो सकता है।

उन्होंने कहा, “ऑनलाइन दुरुपयोग का नकारात्मक मनोवैज्ञानिक प्रभाव हो सकता है और लोग राजनीति में रहने पर पुनर्विचार कर सकते हैं। बाहरी पर्यवेक्षकों के लिए, इस तरह के प्रवचन को देखकर शायद उन्हें यह आभास हो सकता है कि यह मेरे लिए जगह नहीं है।”

“थोड़ी मात्रा में दुरुपयोग अभी भी बहुत नुकसान पहुंचा सकता है।”

निवेश की कमी?

ट्विटर के पूर्व सार्वजनिक नीति अधिकारी – अब एक्स, थियोडोरा स्केडास ने कहा, यह विफलता आगामी अमेरिकी चुनाव से पहले चुनाव तैयारियों में निवेश की व्यापक कमी का हिस्सा है।

टेक पॉलिसी कंसल्टिंग के सीईओ स्केडास ने कहा, “उन्होंने राजनीतिक सामग्री की निगरानी के लिए कर्मचारियों की छंटनी की है और संसाधनों में कमी की है।”

पिछले कई वर्षों में, फेसबुक ने कई टीमों में अपने कर्मचारियों की संख्या कम कर दी है।

अमेरिका स्थित प्यू रिसर्च सेंटर के अनुसार, फेसबुक और इंस्टाग्राम संयुक्त राज्य अमेरिका में दूसरे और तीसरे सबसे लोकप्रिय सोशल मीडिया प्लेटफॉर्म हैं, 68% अमेरिकी वयस्कों ने बताया कि वे फेसबुक का उपयोग करते हैं, और 47% ने कहा कि वे इंस्टाग्राम का उपयोग करते हैं।

प्यू रिसर्च सेंटर ने पाया कि एक तिहाई से अधिक उपयोगकर्ता वर्तमान घटनाओं के बारे में जानकारी प्राप्त करने के लिए प्लेटफार्मों पर भरोसा करते हैं।

मेटा के अनुसार, उसके प्लेटफॉर्म पर नफरत फैलाने वाले भाषण का उल्लंघन करने वाली सामग्री की प्रासंगिकता बहुत कम है – फेसबुक पर लगभग 0.02% और इंस्टाग्राम पर 0.02% -0.03% के बीच, जिसका अर्थ है कि प्रत्येक 10,000 सामग्री दृश्यों में से लगभग 2 से 3 में नफरत फैलाने वाला भाषण होगा।

मेटा के प्रवक्ता ने थॉमसन रॉयटर्स फाउंडेशन को बताया कि 2024 की दूसरी तिमाही में, फेसबुक ने नफरत फैलाने वाली भाषण नीतियों का उल्लंघन करने के लिए 7.2 मिलियन सामग्री और अपनी बदमाशी और उत्पीड़न नीतियों का उल्लंघन करने के लिए 7.8 मिलियन सामग्री के खिलाफ कार्रवाई की।

लेकिन मेटा के पूर्व डेटा वैज्ञानिक जेफ एलन, जो गैर-लाभकारी इंटीग्रिटी इंस्टीट्यूट के सह-संस्थापक हैं, ने कहा कि नफरत फैलाने वाले भाषण को चिह्नित करने के लिए इस्तेमाल की जाने वाली स्वचालित प्रणालियाँ अक्सर बहुत कुछ चूक जाती हैं। उन्होंने कहा, वे किसी टिप्पणी के संदर्भ को समझने में विफल हो सकते हैं, या अपशब्दों या परोक्ष भाषा से मूर्ख बन सकते हैं।

एलन ने यह भी कहा कि फेसबुक जैसे प्लेटफॉर्म पोस्ट हटाने के मामले में बहुत सख्ती बरतने से सावधान रहते हैं, क्योंकि यह लोगों द्वारा ऑनलाइन बिताए जाने वाले समय में हस्तक्षेप कर सकता है।

उन्होंने कहा, “यदि आप सामग्री को हटाने के बारे में अधिक आक्रामक हैं, तो आप जुड़ाव को कम होते देखेंगे – व्यापार-बंद होंगे।”

फरवरी के एक ब्लॉग पोस्ट में चुनावों के लिए अपनी रणनीति को रेखांकित करते हुए, मेटा के वैश्विक मामलों के अध्यक्ष निक क्लेग ने लिखा: “कोई भी तकनीकी कंपनी मेटा की तुलना में ऑनलाइन चुनावों की सुरक्षा के लिए इतना कुछ नहीं करती है या अधिक निवेश नहीं करती है – न केवल चुनाव अवधि के दौरान बल्कि हर समय।”

क्लेग ने कहा कि कंपनी ने 2024 के अमेरिकी राष्ट्रपति चुनाव के प्रयासों में 20 अरब डॉलर से अधिक का निवेश किया, जो राजनीतिक विज्ञापन को पारदर्शी बनाने और मंच पर घृणा समूहों का पता लगाने वाली टीमों को मजबूत करने की मेटा की प्रतिबद्धता को उजागर करता है।

पारदर्शिता

चुनावों की सुरक्षा में मदद करने की फेसबुक की प्रतिज्ञा के बावजूद, हाल की कई रिपोर्टें ऐसे उदाहरणों की ओर इशारा करती हैं जहां झूठे विज्ञापन, चुनावी गलत सूचना और नफरत फैलाने वाले भाषण की अनुमति दी गई है।

अक्टूबर में, ग्लोबल विटनेस ने प्रमुख सोशल मीडिया प्लेटफ़ॉर्म के विज्ञापन सिस्टम का परीक्षण किया, जिसमें पाया गया कि चुनावी गलत सूचना वाले कुछ भुगतान किए गए विज्ञापन अभी भी स्वीकार किए जा रहे हैं और फेसबुक पर पोस्ट किए जा रहे हैं, भले ही प्लेटफ़ॉर्म ने अपनी समीक्षा प्रक्रिया में सुधार किया हो।

फोर्ब्स ने अक्टूबर में रिपोर्ट दी थी कि फेसबुक एक मिलियन डॉलर से अधिक के विज्ञापन चला रहा था, जिसमें गलत दावा किया गया था कि अमेरिकी चुनाव स्थगित हो सकते हैं या धांधली हो सकती है, जबकि ब्यूरो ऑफ इन्वेस्टिगेटिव जर्नलिज्म ने नवंबर में एक रिपोर्ट प्रकाशित की थी जिसमें कहा गया था कि ई-कॉमर्स कंपनियां फेसबुक के माध्यम से माल बेच रही थीं जिसमें समान सामग्री थी। झूठ. रिपोर्ट के मुताबिक, दोनों मामलों में मेटा ने कहा कि वह मामले की समीक्षा कर रहा है।

एलन जैसे शोधकर्ताओं का कहना है कि मेटा इस बारे में अधिक पारदर्शी हो सकता है कि वह घृणास्पद भाषण से कैसे निपटता है, कितने उपयोगकर्ताओं को उजागर किया गया है, इस पर डेटा जारी करके, यह समझाकर कि मानव समीक्षकों को कितनी बार पोस्ट सबमिट किए जाते हैं, और उनके स्वचालित सिस्टम कैसे काम करते हैं, इसके बारे में अधिक खुलासा करते हुए।

मेटा ने अगस्त में प्लेटफ़ॉर्म पर वायरल गलत सूचनाओं को ट्रैक करने के लिए बाहरी शोधकर्ताओं द्वारा व्यापक रूप से उपयोग किए जाने वाले टूल “क्राउडटैंगल” को चरणबद्ध तरीके से समाप्त कर दिया। इस कदम से इसका इस्तेमाल करने वाले समूहों और विशेषज्ञों की ओर से शिकायतें बढ़ गईं, लेकिन फेसबुक ने कहा कि उसने नए टूल पेश किए हैं जो उसके प्लेटफॉर्म पर गतिविधियों की पूरी तस्वीर देते हैं।

एलन ने कहा, “हमें नुकसान के पैमाने पर मेट्रिक्स की जरूरत है।”

ग्लोबल विटनेस ने कहा कि फेसबुक ने अपने शोध के निष्कर्षों पर उसके साथ बिल्कुल भी बातचीत नहीं की – उसे इस बारे में अंधेरे में छोड़ दिया गया कि अमेरिकी चुनाव से पहले के दिनों में घृणास्पद भाषण को कैसे संभाला जा रहा था।

ग्लोबल विटनेस के साथ जुडसन ने कहा, अधिक पारदर्शिता के बिना, यह जानना असंभव है कि इस महत्वपूर्ण समय में प्लेटफॉर्म दुरुपयोग को कितनी गंभीरता से ले रहे हैं, कंपनी के अपने नियमों के उल्लंघन को चिह्नित करने का काम बाहरी शोधकर्ताओं पर छोड़ दिया गया है।

उन्होंने कहा, “उनके लिए, यह हमेशा ‘कैच-अप’ स्थिति होती है, यह सक्रिय नहीं है।”

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *