नई दिल्ली: बहुत दूर के अतीत में, फ़ोटोशॉप जैसे टूल का उपयोग करके छवि हेरफेर बड़े पैमाने पर थे, बड़े पैमाने पर चेहरे और डेटा को बदल दिया गया था। हमें इस बात का जरा भी एहसास नहीं था कि उस समय इस तरह की धोखाधड़ी वाली गतिविधियों की गंभीरता को समझने और संबोधित करने से हमें आज की समकालीन चुनौती – गहरे नकली वीडियो के प्रसार – से बचाया जा सकता था।
वर्तमान परिदृश्य में, गहरे नकली वीडियो एक महत्वपूर्ण सामाजिक चिंता का विषय बन गए हैं। हालाँकि कुछ लोगों को किसी दूसरे के वीडियो पर अपना चेहरा लगाने में मज़ा मिल सकता है, लेकिन पीड़ित लोग इसे अपनी निजता का उल्लंघन मानते हैं। सच तो यह है कि किसी भी व्यक्ति का डीप फेक वीडियो बनाना नैतिक और नैतिक रूप से गलत है।
अभिनेत्री रश्मिका मंदाना से जुड़े विवाद के बाद, एक और बॉलीवुड स्टार, काजोल, अब खुद को डीप फेक तूफान के केंद्र में पाती हैं। ऑनलाइन प्रसारित हो रहे एक वीडियो में काजोल को कपड़े बदलते हुए, अनुचित स्वभाव के कारण भौंहें चढ़ाते हुए दिखाया गया है।
सामान्य रूप से देखने पर, वीडियो में काजोल स्वयं दिखाई देती हैं। हालाँकि, एक सावधानीपूर्वक जांच से डीप फेक के स्पष्ट संकेत सामने आते हैं। एक सोशल मीडिया प्रभावकार रोज़ी ब्रीन का चेहरा डीप फेक तकनीक का उपयोग करके किसी अन्य व्यक्ति के शरीर पर सहजता से एकीकृत किया गया है।
इस विवादास्पद वीडियो का स्रोत रोज़ी ब्रीन के टिकटॉक प्लेटफ़ॉर्म पर है, जहां उन्होंने शुरुआत में इसे ‘गेट रेडी विद मी’ सोशल मीडिया ट्रेंड के हिस्से के रूप में साझा किया था। काजोल के चेहरे का उपयोग करने वाला वीडियो, ऐसी सामग्री बनाने की नैतिकता पर सवाल उठाता है, खासकर जब सम्मानित अभिनेत्रियों को शामिल किया जाता है। यह संभव है कि यह वीडियो उन्हें नीचा दिखाने के इरादे से बनाया गया हो।
हालाँकि कुछ निर्माता डीप फेक वीडियो को मनोरंजन के रूप में देखते हैं, लेकिन इसके परिणाम गंभीर हो सकते हैं। आपराधिक गतिविधियों के लिए इन वीडियो का दुरुपयोग एक और वास्तविक चिंता का विषय है। चुनावों में डीप फेक वीडियो के संभावित प्रभाव को भी कम करके नहीं आंका जा सकता। ये वीडियो गलत सूचना फैला सकते हैं, जनता की राय को प्रभावित कर सकते हैं और लोकतांत्रिक प्रक्रिया को खतरे में डाल सकते हैं।
प्रधानमंत्री नरेंद्र मोदी समेत बड़ी राजनीतिक हस्तियां भी सोशल मीडिया पर चल रहे डीप फेक वीडियो और ऑडियो क्लिप का शिकार हो चुकी हैं। सरकार ने इस तकनीक के दुरुपयोग पर बढ़ती चिंता व्यक्त की है।
ज़ी न्यूज़ के प्राइम टाइम शो डीएनए के आज के एपिसोड में, एंकर सौरभ राज जैन इस मुद्दे की जटिलताओं पर प्रकाश डालते हैं, एआई-संचालित डीपफेक तकनीक से उत्पन्न होने वाले खतरों और आसन्न खतरे पर प्रकाश डालते हैं। जैसे-जैसे हम उन्नत प्रौद्योगिकी के इस युग में आगे बढ़ रहे हैं, डीप फेक वीडियो के दुरुपयोग को रोकने के लिए कड़े उपायों की आवश्यकता तेजी से स्पष्ट होती जा रही है।
छवि स्रोत: एपी फ़ाइल मुंबई आतंकवादी हमलों का बदला तहव्वुर राणा जल्द ही भारत लाया…
छवि स्रोत: पीटीआई (फ़ाइल) शुरुआती कारोबार में सेंसेक्स पहली बार 80,000 के पार, निफ्टी रिकॉर्ड…
छवि स्रोत: फ़ाइल WhatsApp व्हाट्सएप में आम को एक और नया फीचर मिलने वाला है।…
मुंबई: बंबई उच्च न्यायालय ने निर्देश दिया है केईएम अस्पताल मेडिकल बोर्ड यह सूचित करना…
आखरी अपडेट: 03 जुलाई, 2024, 09:00 ISTमेटा को उम्मीद है कि एआई गोपनीयता नियम जेनएआई…
छवि स्रोत : वायरल भयानी शीघ्र सिंह और दीपिका पादुकोण। नाग अश्विन की साइंस-फिक्शन डायस्टोपियन…