आखरी अपडेट:
Reface, FaceApp, DeepFaceLab, Faceswap, Lensa और Wombo सहित मोबाइल ऐप्स और टूल की बढ़ती संख्या उपयोगकर्ताओं को मिनटों के भीतर यथार्थवादी सिंथेटिक मीडिया बनाने की अनुमति देती है।
यह क्लिप, जो उस महिला के हल्के-फुल्के व्लॉग के रूप में शुरू होती है, जिसे वह कुत्ता मानती है, फिल्माती है, जब जानवर अचानक हमला करता है तो यह भयावह हो जाता है। (इंस्टाग्राम/@taii_vloger)
हाल के सप्ताहों में, खतरनाक एआई-जनित वीडियो की एक श्रृंखला ने सोशल मीडिया पर बाढ़ ला दी है, जिससे व्यापक भ्रम और चिंता पैदा हो गई है। एक विशेष रूप से वायरल क्लिप में एक बुजुर्ग महिला पर शेर द्वारा हमला किया जाता है और उसे खींचकर ले जाया जाता है, इस वीडियो ने कई लोगों को चौंका दिया, जबकि अन्य ने इसकी प्रामाणिकता पर सवाल उठाया।
यह क्लिप, जो उस महिला के हल्के-फुल्के व्लॉग के रूप में शुरू होती है, जिसे वह कुत्ता मानती है, फिल्माती है, जब जानवर अचानक झपटता है, तो यह भयावह हो जाता है। हालाँकि, डिजिटल फोरेंसिक विशेषज्ञों ने पुष्टि की है कि फुटेज वास्तविक नहीं है। यह एक डीपफेक, एआई-जनित वीडियो है जिसे परिष्कृत संपादन के माध्यम से वास्तविकता की नकल करने के लिए तैयार किया गया है।
ऐसे वीडियो, जो अक्सर धोखा देने या मनोरंजन करने के लिए बनाए जाते हैं, तेजी से आम होते जा रहे हैं। वे कृत्रिम बुद्धिमत्ता मॉडल पर भरोसा करते हैं जो चेहरे, आवाज और यहां तक कि शरीर की गतिविधियों को बदल सकते हैं, जिससे अति-यथार्थवादी भ्रम पैदा हो सकता है। उदाहरण के लिए, वायरल “शेर हमले” वीडियो में, हिंसक मुठभेड़ का अनुकरण करने के लिए वास्तविक फुटेज को एआई-जनरेटेड इमेजरी के साथ मिला दिया गया था।
डीपफेक को पहली बार वर्षों पहले तब प्रसिद्धि मिली थी जब 2016 में एक वीडियो वायरल हुआ था जिसमें एक शेर को एक शिकार जोड़े पर हमला करते हुए दिखाया गया था। बाद में पता चला कि इसे एक प्रयोग के हिस्से के रूप में एक ऑस्ट्रेलियाई स्टूडियो द्वारा निर्मित किया गया था। अभी हाल ही में, एक वीडियो जिसमें भारत में एक सुपरमार्केट के अंदर एक शेर को दावत करते हुए दिखाया गया था, एक और एआई निर्माण होने की पुष्टि की गई थी।
देखें वायरल वीडियो:
ऐसे वीडियो बनाने में आसानी ने उनकी पहुंच बढ़ा दी है। Reface, FaceApp, DeepFaceLab, Faceswap, Lensa और Wombo सहित मोबाइल ऐप्स और डेस्कटॉप टूल की बढ़ती संख्या उपयोगकर्ताओं को मिनटों के भीतर यथार्थवादी सिंथेटिक मीडिया बनाने की अनुमति देती है। ये प्लेटफ़ॉर्म जीवंत दृश्य और आवाज़ें उत्पन्न करने के लिए उन्नत तंत्रिका नेटवर्क जैसे जेनरेटिव एडवरसैरियल नेटवर्क (जीएएन) और प्रसार मॉडल का उपयोग करते हैं।
हालाँकि, इन उपकरणों का उपयोग मनोरंजन के लिए किया जा सकता है, विशेषज्ञों ने चेतावनी दी है कि इनके दुरुपयोग के गंभीर परिणाम हो सकते हैं। प्रसिद्ध पत्रकार और तथ्य-जांच विशेषज्ञ जतिन गांधी ने नकली वीडियो की पहचान करने के सरल तरीके साझा किए, “एआई वीडियो इतने सहज हो गए हैं कि पेशेवर भी उन्हें पहली नज़र में पहचानने में संघर्ष कर सकते हैं।”
गांधी के अनुसार, प्रामाणिकता का परीक्षण करने का एक त्वरित तरीका वह है जिसे वह “9-सेकंड की जांच” कहते हैं। उन्होंने कहा, नौ-सेकंड के निशान के आसपास, गलत संरेखित हाथ, अजीब शारीरिक गतिविधियां, या अप्राकृतिक चेहरे के बदलाव जैसी विकृतियों को देखें। अन्य लाल झंडों में ऐसे चेहरे शामिल हैं जो स्वाभाविक रूप से पलकें झपकाने में विफल रहते हैं, बेमेल रोशनी या छाया, और प्राकृतिक श्वास या भावना के बिना कृत्रिम ध्वनि वाला ऑडियो।
संदिग्ध वीडियो को सत्यापित करने के लिए, विशेषज्ञ डीपवेयर स्कैनर, एमआईटी डिटेक्ट फेक और डीपफेक डिटेक्टर जैसे डिजिटल टूल का उपयोग करने की सलाह देते हैं, जो सिंथेटिक सामग्री के लिए अपलोड किए गए क्लिप का विश्लेषण करते हैं। रिवर्स इमेज सर्च के माध्यम से स्रोतों को क्रॉस-चेक करने से यह पुष्टि करने में भी मदद मिल सकती है कि क्या किसी वीडियो के साथ छेड़छाड़ की गई है या पुराने फुटेज से उसका पुन: उपयोग किया गया है।
कानूनी विशेषज्ञ सावधान करते हैं कि भारत में वर्तमान में डीपफेक को संबोधित करने के लिए एक समर्पित कानून का अभाव है, हालांकि मौजूदा कानून के कई प्रावधान लागू होते हैं। भारतीय न्याय संहिता (बीएनएस) के तहत, धारा 499-500 में मानहानि (2 साल तक की कैद या जुर्माने से दंडनीय) शामिल है, जबकि धारा 465 और 469 में जालसाजी शामिल है। सूचना प्रौद्योगिकी (आईटी) अधिनियम, 2000 में धारा 66डी भी शामिल है, जो कंप्यूटर से संबंधित धोखाधड़ी के लिए 3 साल तक की जेल का प्रावधान करती है।
इस बीच, सोशल मीडिया कंपनियां आईटी नियम 2021 के तहत भ्रामक या हानिकारक सामग्री की रिपोर्ट करने और उसे हटाने के लिए बाध्य हैं। 2023 में, सरकार ने एक एडवाइजरी जारी कर प्लेटफॉर्मों को डीपफेक के खिलाफ कड़ी कार्रवाई करने का निर्देश दिया।
कई हाई-प्रोफ़ाइल घटनाओं ने पहले ही कानूनी हस्तक्षेप को प्रेरित किया है। अभिनेत्री रश्मिका मंदाना के डीपफेक वीडियो के कारण दिल्ली में एफआईआर हुई, जबकि अनिल कपूर के मामले में एक अदालत के आदेश ने उनकी छवि और आवाज के दुरुपयोग पर रोक लगा दी। ऐश्वर्या राय बच्चन ने कथित तौर पर यूट्यूब पर अपनी डीपफेक क्लिप आने के बाद 4 करोड़ रुपये का मुकदमा दायर किया था।
साइबर अपराध विशेषज्ञ पीड़ितों को अपने स्थानीय साइबर सेल या इलेक्ट्रॉनिक्स और सूचना प्रौद्योगिकी मंत्रालय के शिकायत पोर्टल पर शिकायत दर्ज करने की सलाह देते हैं। सरकार नए एआई नियमों पर भी काम कर रही है जो सिंथेटिक मीडिया के लिए स्पष्ट लेबलिंग और ट्रेसबिलिटी को अनिवार्य कर सकते हैं।
जैसे-जैसे डीपफेक अधिक परिष्कृत होते जा रहे हैं, इंटरनेट उपयोगकर्ताओं के लिए चुनौती सावधानी के साथ जिज्ञासा को संतुलित करना है। जो एक चौंकाने वाला क्षण प्रतीत होता है, जैसे कि एक महिला को शेर द्वारा ले जाया जा रहा हो, वह कंप्यूटर के भ्रम से ज्यादा कुछ नहीं हो सकता है।
13 नवंबर, 2025, 16:30 IST
और पढ़ें
