12.1 C
New Delhi
Thursday, February 2, 2023
Homeटेक्नोलॉजीफेसबुक ने नए आईटी नियम 2021 के अनुसार 30...

फेसबुक ने नए आईटी नियम 2021 के अनुसार 30 मिलियन पोस्ट हटाए, अनुपालन रिपोर्ट का खुलासा किया


फेसबुक ने देश में 15 मई से 15 जून के दौरान 10 उल्लंघन श्रेणियों में 30 मिलियन से अधिक सामग्री के टुकड़ों पर “कार्रवाई” की, सोशल मीडिया दिग्गज ने आईटी नियमों द्वारा अनिवार्य अपनी पहली मासिक अनुपालन रिपोर्ट में कहा। इंस्टाग्राम ने लगभग दो मिलियन टुकड़ों के खिलाफ कार्रवाई की। इसी अवधि के दौरान नौ श्रेणियां। नए आईटी नियमों के तहत, बड़े डिजिटल प्लेटफॉर्म (5 मिलियन से अधिक उपयोगकर्ताओं के साथ) को हर महीने आवधिक अनुपालन रिपोर्ट प्रकाशित करनी होगी, जिसमें प्राप्त शिकायतों और उन पर की गई कार्रवाई का विवरण होगा। रिपोर्ट में यह भी शामिल है विशिष्ट संचार लिंक या जानकारी के कुछ हिस्सों की संख्या जिन्हें मध्यस्थ ने स्वचालित उपकरणों का उपयोग करके संचालित किसी भी सक्रिय निगरानी के अनुसरण में हटा दिया है या पहुंच को अक्षम कर दिया है।

जहां 15 मई से 15 जून के दौरान फेसबुक ने कई श्रेणियों में 30 मिलियन से अधिक सामग्री पर कार्रवाई की, वहीं इंस्टाग्राम ने लगभग 2 मिलियन टुकड़ों के खिलाफ कार्रवाई की। फेसबुक के एक प्रवक्ता ने कहा कि पिछले कुछ वर्षों में फेसबुक ने लगातार प्रौद्योगिकी, लोगों और प्रक्रियाओं में निवेश किया है ताकि उपयोगकर्ताओं को ऑनलाइन सुरक्षित और सुरक्षित रखने के अपने एजेंडे को आगे बढ़ाया जा सके और उन्हें अपने मंच पर खुद को स्वतंत्र रूप से व्यक्त करने में सक्षम बनाया जा सके। “हम अपनी नीतियों के खिलाफ सामग्री की पहचान और समीक्षा करने के लिए कृत्रिम बुद्धि, हमारे समुदाय से रिपोर्ट और हमारी टीमों द्वारा समीक्षा के संयोजन का उपयोग करते हैं। प्रवक्ता ने पीटीआई को दिए एक बयान में कहा, हम और अधिक जानकारी जोड़ना जारी रखेंगे और पारदर्शिता की दिशा में इन प्रयासों को आगे बढ़ाएंगे।

फेसबुक ने कहा कि उसकी अगली रिपोर्ट 15 जुलाई को प्रकाशित की जाएगी, जिसमें प्राप्त शिकायतों और की गई कार्रवाई का विवरण होगा। “हम डेटा संग्रह और सत्यापन के लिए पर्याप्त समय की अनुमति देने के लिए रिपोर्टिंग अवधि के बाद 30-45 दिनों के अंतराल के साथ रिपोर्ट के बाद के संस्करणों को प्रकाशित करने की उम्मीद करते हैं। हम अपने काम में और अधिक पारदर्शिता लाना जारी रखेंगे और भविष्य की रिपोर्टों में अपने प्रयासों के बारे में अधिक जानकारी शामिल करेंगे।” इस सप्ताह की शुरुआत में, फेसबुक ने कहा था कि वह 2 जुलाई को एक अंतरिम रिपोर्ट प्रकाशित करेगा जिसमें हटाए गए सामग्री की संख्या के बारे में जानकारी प्रदान की जाएगी। 15 मई से 15 जून के दौरान सक्रिय रूप से। अंतिम रिपोर्ट 15 जुलाई को प्रकाशित की जाएगी, जिसमें प्राप्त उपयोगकर्ता शिकायतों और की गई कार्रवाई का विवरण होगा।

15 जुलाई की रिपोर्ट में व्हाट्सएप से संबंधित डेटा भी शामिल होगा, जो फेसबुक के ऐप्स के परिवार का हिस्सा है। अन्य प्रमुख प्लेटफ़ॉर्म जिन्होंने अपनी रिपोर्ट को सार्वजनिक किया है, उनमें Google और घरेलू प्लेटफ़ॉर्म कू शामिल हैं। फेसबुक ने अपनी रिपोर्ट में कहा कि उसने 15 मई से 15 जून के दौरान 10 श्रेणियों में 30 मिलियन से अधिक सामग्री पर कार्रवाई की है। इसमें स्पैम (25 मिलियन), हिंसक और ग्राफिक सामग्री (2.5 मिलियन), वयस्क नग्नता और यौन गतिविधि से संबंधित सामग्री शामिल है। (1.8 मिलियन), और अभद्र भाषा (311,000)। जिन अन्य श्रेणियों के तहत सामग्री पर कार्रवाई की गई, उनमें बदमाशी और उत्पीड़न (118,000), आत्महत्या और आत्म-चोट (589,000), खतरनाक संगठन और व्यक्ति शामिल हैं: आतंकवादी प्रचार (106,000) और खतरनाक संगठन और व्यक्ति: संगठित घृणा (75,000)।

“कार्रवाई की गई” सामग्री सामग्री के टुकड़ों (जैसे पोस्ट, फोटो, वीडियो या टिप्पणियों) की संख्या को संदर्भित करती है जहां मानकों के उल्लंघन के लिए कार्रवाई की गई है। कार्रवाई करने में फेसबुक या इंस्टाग्राम से सामग्री का एक टुकड़ा निकालना या फ़ोटो को कवर करना शामिल हो सकता है या वीडियो जो चेतावनी के साथ कुछ दर्शकों को परेशान कर सकते हैं। सक्रिय दर, जो उन सभी सामग्री या खातों के प्रतिशत को इंगित करती है, जिन पर फेसबुक ने उपयोगकर्ताओं द्वारा रिपोर्ट किए जाने से पहले प्रौद्योगिकी का उपयोग करके पाया और फ़्लैग किया, इनमें से अधिकांश मामलों में 96.4-99.9 प्रति के बीच था प्रतिशत। बदमाशी और उत्पीड़न से संबंधित सामग्री को हटाने के लिए सक्रिय दर 36.7 प्रतिशत थी क्योंकि यह सामग्री प्रकृति से प्रासंगिक और अत्यधिक व्यक्तिगत है। कई उदाहरणों में, लोगों को इस तरह की सामग्री को पहचानने या हटाने से पहले फेसबुक को इस व्यवहार की रिपोर्ट करने की आवश्यकता होती है।

इंस्टाग्राम के लिए, 15 मई से 15 जून के दौरान नौ श्रेणियों में 2 मिलियन सामग्री पर कार्रवाई की गई। इसमें आत्महत्या और आत्म-चोट (699,000), हिंसक और ग्राफिक सामग्री (668,000), वयस्क नग्नता और यौन गतिविधि (490,000) से संबंधित सामग्री शामिल है। , और बदमाशी और उत्पीड़न (108,000)। जिन अन्य श्रेणियों के तहत सामग्री पर कार्रवाई की गई, उनमें अभद्र भाषा (53,000), खतरनाक संगठन और व्यक्ति शामिल हैं: आतंकवादी प्रचार (5,800), और खतरनाक संगठन और व्यक्ति: संगठित घृणा (6,200)। Google ने कहा था कि इस साल अप्रैल में Google और YouTube को भारत में अलग-अलग उपयोगकर्ताओं से स्थानीय कानूनों या व्यक्तिगत अधिकारों के कथित उल्लंघन को लेकर 27,762 शिकायतें मिलीं, जिसके परिणामस्वरूप 59,350 सामग्री को हटा दिया गया।

कू ने अपनी रिपोर्ट में कहा कि उसने सक्रिय रूप से 54,235 सामग्री को मॉडरेट किया है, जबकि जून के दौरान इसके उपयोगकर्ताओं द्वारा 5,502 पोस्ट किए गए थे। आईटी नियमों के अनुसार, एक मुख्य अनुपालन अधिकारी, एक नोडल अधिकारी और एक शिकायत अधिकारी को नियुक्त करने के लिए महत्वपूर्ण सोशल मीडिया मध्यस्थों की भी आवश्यकता होती है और इन अधिकारियों का भारत में निवासी होना आवश्यक है। आईटी नियमों का पालन न करने के परिणामस्वरूप इन प्लेटफार्मों को अपनी मध्यस्थ स्थिति खोनी पड़ेगी जो उन्हें उनके द्वारा होस्ट किए गए किसी भी तीसरे पक्ष के डेटा पर देनदारियों से प्रतिरक्षा प्रदान करती है। दूसरे शब्दों में, वे शिकायतों के मामले में आपराधिक कार्रवाई के लिए उत्तरदायी हो सकते हैं।

फेसबुक ने हाल ही में भारत में स्पूर्थी प्रिया को अपना शिकायत अधिकारी नामित किया है। भारत वैश्विक डिजिटल प्लेटफॉर्म के लिए एक प्रमुख बाजार है। हाल ही में सरकार द्वारा उद्धृत आंकड़ों के अनुसार, भारत में 53 करोड़ व्हाट्सएप उपयोगकर्ता, 41 करोड़ फेसबुक ग्राहक, 21 करोड़ इंस्टाग्राम ग्राहक हैं, जबकि 1.75 करोड़ खाताधारक माइक्रोब्लॉगिंग प्लेटफॉर्म ट्विटर पर हैं।

सभी नवीनतम समाचार, ब्रेकिंग न्यूज और कोरोनावायरस समाचार यहां पढ़ें

.