20.1 C
New Delhi
Friday, November 22, 2024

Subscribe

Latest Posts

राय | गहरा फर्जी वीडियो: नया खतरा


छवि स्रोत: इंडिया टीवी फर्जी वीडियो में आर्यन को एमपी चुनाव में कांग्रेस पार्टी का समर्थन करते हुए दिखाया गया था।

प्रधानमंत्री नरेंद्र मोदी ने शुक्रवार को कृत्रिम बुद्धिमत्ता-संचालित प्रौद्योगिकी के माध्यम से बनाए गए “डीप फेक” वीडियो से उभरते खतरे पर गंभीर चिंता व्यक्त की। वह दिल्ली में पत्रकारों के साथ दिवाली मिलन कार्यक्रम को संबोधित कर रहे थे. मोदी ने कहा, “कृत्रिम बुद्धिमत्ता के माध्यम से तैयार किए गए डीप फेक के कारण एक नया संकट उभर रहा है। हमारे पास ऐसे लोगों का एक बड़ा वर्ग है जिनके पास उनकी प्रामाणिकता के बारे में सत्यापन करने के लिए उपकरण नहीं हैं और अंततः लोग वीडियो को वास्तविक मान लेते हैं।” यह एक बड़ी चुनौती बनने जा रही है।” मोदी ने उल्लेख किया कि कैसे एक फर्जी वीडियो में उन्हें निशाना बनाया गया, जिसमें दिखाया गया था कि वह एक नवरात्रि उत्सव में ‘गरबा’ नृत्य कर रहे थे। “उन्होंने इसे बहुत अच्छा किया, लेकिन सच तो यह है कि मैंने काफी समय से गरबा नहीं खेला है। जब मैं बच्चा था तो मैं गरबा खेलता था और स्कूल के दिनों के बाद मैंने गरबा खेलना बंद कर दिया। आर्टिफिशियल इंटेलिजेंस के जरिए बनाए गए इस फर्जी वीडियो के कारण मेरी अनुयायी इसे अग्रेषित कर रहे हैं”, प्रधान मंत्री ने कहा। मोदी ने कहा, उन्होंने कृत्रिम बुद्धिमत्ता उद्योग में हितधारकों के साथ इस मुद्दे को उठाया था। उन्होंने कहा, “मैंने उन्हें सुझाव दिया कि उन्हें एआई-जनित सामग्री को टैग करने पर विचार करना चाहिए जिसका दुरुपयोग होने का खतरा है।”

मोदी ने कहा, नई एआई तकनीक जहां जीवन को आसान बना रही है, वहीं ‘डीप फेक’ वीडियो बनाना खतरनाक भी हो सकता है। उन्होंने कहा, ऐसे वीडियो जिंदगियां खराब कर सकते हैं और सामाजिक ताने-बाने को नुकसान पहुंचा सकते हैं, वे समाज में तनाव पैदा कर सकते हैं और सभी को सतर्क रहने की जरूरत है। मोदी ने कहा, अधिकांश भारतीय अक्सर सेल फोन का उपयोग करते हैं, कोई भी ‘डीप फेक वीडियो’ सोशल मीडिया के माध्यम से कुछ ही सेकंड में लाखों लोगों तक प्रसारित किया जा सकता है और इससे समाज को बड़ा नुकसान हो सकता है। उन्होंने कहा, मामला छोटा हो सकता है, लेकिन खतरा बड़ा है. ‘डीप फेक’ वीडियो में, किसी व्यक्ति के चेहरे या शरीर के अन्य हिस्सों को दूसरे व्यक्ति के चेहरे या शरीर के हिस्सों पर लगाया जा सकता है और इसे असली बताया जा सकता है। कैटरीना कैफ, काजोल, रश्मिका मंदाना और कई अन्य हस्तियों को हाल ही में ‘डीप फेक’ वीडियो के जरिए निशाना बनाया गया है। मध्य प्रदेश विधानसभा चुनाव में राजनीतिक दलों द्वारा फर्जी वीडियो का इस्तेमाल किया गया और कांग्रेस और बीजेपी दोनों ने चुनाव आयोग में शिकायत दर्ज कराई. शुक्रवार को एमपी में वोटिंग खत्म होने के बाद मुख्यमंत्री शिवराज सिंह चौहान ने आरोप लगाया कि फर्जी वीडियो प्रसारित कर मतदाताओं को गुमराह किया गया. बीजेपी ने चुनाव आयोग के पास कम से कम दो दर्जन शिकायतें दर्ज कराई हैं और उनमें से ज्यादातर फर्जी वीडियो से संबंधित हैं। एक फर्जी वीडियो में, चौहान को मंत्रियों और नौकरशाहों से कहते हुए दिखाया गया है कि “लोग गुस्से में हैं…बीजेपी बड़े अंतर से हार सकती है…हर गांव और बूथ पर जाएं…जाएं और प्रबंधन करें”। वीडियो सीएम की अध्यक्षता में हुई आखिरी कैबिनेट बैठक का था, लेकिन इसमें जो आवाज लगाई गई थी वह चौहान की नहीं थी।

वीडियो में लगभग सीएम से मिलती-जुलती आवाज लगाई गई थी। पुलिस को सोशल मीडिया प्लेटफॉर्म्स से इस फर्जी वीडियो को हटाने के लिए कहना पड़ा. यहां तक ​​कि मतदाताओं को गुमराह करने के लिए कुछ लोकप्रिय टीवी शो के वीडियो में भी बदलाव किया गया। एक ‘कौन बनेगा करोड़पति’ वीडियो क्लिप में, होस्ट और प्रतियोगी की आवाज़ को सुपरइम्पोज़ करके पूरी सामग्री बदल दी गई थी। इसका उद्देश्य दर्शकों को यह बताना था कि शिवराज सिंह चौहान एक “घोषणा मुख्यमंत्री” हैं। पुलिस इस वीडियो के स्रोत का पता लगाने में असमर्थ है, लेकिन कांग्रेस समर्थकों द्वारा इसे व्यापक रूप से प्रसारित किया गया था। पिछले महीने सोनी टीवी को इसे मनगढ़ंत बताते हुए स्पष्टीकरण जारी करना पड़ा था. इसमें कहा गया है, “हमें हमारे शो ‘कौन बनेगा करोड़पति’ के एक अनधिकृत वीडियो के प्रसार के बारे में सतर्क किया गया है। यह वीडियो भ्रामक रूप से हमारे होस्ट की मनगढ़ंत आवाज को पेश करता है और विकृत सामग्री प्रस्तुत करता है… हम इस मामले को सक्रिय रूप से संबोधित कर रहे हैं।” साइबर अपराध सेल के साथ। हम ऐसी गलत सूचनाओं की कड़ी निंदा करते हैं, अपने दर्शकों से सतर्क रहने और असत्यापित सामग्री साझा करने से बचने का आग्रह करते हैं।” कांग्रेस समर्थक द्वारा एक्स पर ब्लू-टिक का निशान लगाए गए एक मॉर्फ्ड वीडियो में बॉलीवुड अभिनेता कार्तिक आर्यन को भी निशाना बनाया गया था।

फर्जी वीडियो में आर्यन को एमपी चुनाव में कांग्रेस पार्टी का समर्थन करते हुए दिखाया गया था। मूल वीडियो में कार्तिक को डिज्नी हॉटस्टार विज्ञापन के प्रचार अभियान में दिखाया गया था। इसे कांग्रेस के चुनाव प्रचार विज्ञापन में रूपांतरित किया गया था। कार्तिक आर्यन को ट्विटर पर स्पष्टीकरण देना पड़ा, “यह असली विज्ञापन है @DisneyPlusHS बाकी सब नकली है।” इस मॉर्फ्ड वीडियो में कांग्रेस का चुनाव चिन्ह ‘हाथ’ दिखाया गया है। फेक और ‘डीप फेक’ वीडियो की समस्या अब गंभीर हो गई है। आर्टिफिशियल इंटेलिजेंस टूल ने जोखिमों को कई गुना बढ़ा दिया है। यहां तक ​​कि अमिताभ बच्चन जैसे मेगास्टार की लोकप्रियता का दुरुपयोग फर्जी वीडियो के माध्यम से मुख्यमंत्री चौहान को बदनाम करने के लिए किया गया। केबीसी जैसे बड़े शो की विश्वसनीयता का दुरुपयोग किया गया. यह एक खतरनाक प्रवृत्ति है. जब तक शिकायत चुनाव आयोग तक पहुंची और एफआईआर दर्ज हुई तब तक काफी नुकसान हो चुका था. ये केवल कुछ उदाहरण हैं. हममें से अधिकांश को अपने सेल फोन पर लगभग दैनिक आधार पर नकली और छेड़छाड़ किए गए वीडियो मिलते हैं। ज्यादातर लोग इन्हें गंभीरता से नहीं लेते. लेकिन जो लोग इन वीडियो को गंभीरता से लेते हैं उनके पास उनकी विश्वसनीयता परखने के लिए कोई उपकरण नहीं है। निजी तौर पर, मुझे प्रतिदिन पांच से छह वीडियो मिलते हैं जिनमें लोग पूछते हैं कि क्या वे नकली हैं या असली हैं। इंडिया टीवी के पास एक टीम है जो ऐसे वीडियो की पुष्टि करती है, लेकिन इंटरनेट एक महासागर है जिसका जाल दूर-दूर तक फैला हुआ है। सभी वीडियो को सत्यापित करना लगभग असंभव है। दूसरे, दो या तीन साल पहले तक एक नकली वीडियो बनाने में दो या तीन दिन लग जाते थे, क्योंकि इसके लिए बहुत हाई-डेफिनिशन फुटेज की जरूरत होती है। अब एक ऐसा सॉफ्टवेयर उपलब्ध है जो चार से पांच घंटे में फर्जी वीडियो तैयार कर सकता है. अब नकली आवाज को लिप सिंक से मैच करना आसान हो गया है।

फर्जी वीडियो कुछ ही घंटों में किसी व्यक्ति की छवि को नुकसान पहुंचा सकता है। यह समुदाय में हिंसा और तनाव भड़का सकता है। हमें इससे जुड़े खतरे को समझना चाहिए। एक और नुकसान है. यदि कोई नेता वास्तविक वीडियो में रिश्वत लेते या कानूनों का उल्लंघन करते हुए पकड़ा जाता है, तो वह आसानी से दावा कर सकता है कि वीडियो नकली है और लोगों को फोरेंसिक परीक्षण कराने की चुनौती दे सकता है। फोरेंसिक रिपोर्ट आने में महीनों लग जाते हैं. रिपोर्ट आती भी है तो सवाल उठते हैं. इसलिए, इसमें शामिल जोखिमों को समझना होगा। साइबर विशेषज्ञों की मदद से लोगों को जागरूक करना जरूरी है। हम सभी को सतर्क रहना चाहिए और संदिग्ध वीडियो को सत्यापित किए बिना अग्रेषित करने से बचना चाहिए। जैसा कि प्रधान मंत्री मोदी ने कहा, ऐसे गहरे नकली वीडियो पर ‘एआई-संचालित सामग्री’ लगाना पहला कदम होना चाहिए। जैसे-जैसे सूचना प्रौद्योगिकी आगे बढ़ रही है, हमें और अधिक सतर्क हो जाना चाहिए। मीडिया की जिम्मेदारी अधिक है. हमें लोगों को सूचित रखना चाहिए. हमें AI और ChatGPT को विश्वसनीयता देने के बजाय ऐसे वीडियो को फर्जी बताना चाहिए। यह हमारी सामूहिक जिम्मेदारी है कि हम प्रौद्योगिकी का दुरुपयोग न होने दें। हमें यह सुनिश्चित करना चाहिए कि मॉर्फ्ड या ‘डीप फेक’ वीडियो के इस्तेमाल से किसी भी व्यक्ति की छवि खराब न हो। मैं दर्शकों को सावधान भी करना चाहूंगा. मुझे शिकायतें मिली हैं कि कुछ लोग मेरी तस्वीर का उपयोग करके दवाएं बेच रहे हैं, कुछ मेरी छवि का उपयोग करके मीडिया में रोजगार का वादा कर रहे हैं, किसी ने मेरे नाम पर फर्जी फोन संदेश भी भेजे हैं। मेरे कार्यालय ने ऐसे सभी मामलों में पुलिस को शिकायतें भेजी हैं।’ मैं आप सभी से सतर्क और सतर्क रहने के लिए कहूंगा। फर्जी विज्ञापनों पर भरोसा न करें. जब भी आप ऐसे फर्जी विज्ञापन देखें तो जरूरत पड़ने पर इंडिया टीवी को सूचित करें। ऐसे सभी वीडियो और विज्ञापनों को सत्यापित करें। केवल उन्हीं संदेशों, पोस्ट और वीडियो पर भरोसा करें जो मेरे हैंडल या इंडिया टीवी के आधिकारिक हैंडल पर पोस्ट किए गए हैं। वे सत्यापित हैं और आप उन पर भरोसा कर सकते हैं।

आज की बात: सोमवार से शुक्रवार, रात 9:00 बजे

भारत का नंबर वन और सबसे ज्यादा फॉलो किया जाने वाला सुपर प्राइम टाइम न्यूज शो ‘आज की बात- रजत शर्मा के साथ’ 2014 के आम चुनाव से ठीक पहले लॉन्च किया गया था। अपनी शुरुआत के बाद से, यह शो भारत के सुपर-प्राइम टाइम को फिर से परिभाषित कर रहा है और संख्यात्मक रूप से अपने समकालीनों से कहीं आगे है।

नवीनतम भारत समाचार



Latest Posts

Subscribe

Don't Miss