32.2 C
New Delhi
Sunday, March 1, 2026

Subscribe

Latest Posts

वास्तविक या एआई प्रवंचना? ‘शेर के हमले’ का वीडियो जिसने ऑनलाइन लाखों लोगों को बेवकूफ बनाया


आखरी अपडेट:

Reface, FaceApp, DeepFaceLab, Faceswap, Lensa और Wombo सहित मोबाइल ऐप्स और टूल की बढ़ती संख्या उपयोगकर्ताओं को मिनटों के भीतर यथार्थवादी सिंथेटिक मीडिया बनाने की अनुमति देती है।

यह क्लिप, जो उस महिला के हल्के-फुल्के व्लॉग के रूप में शुरू होती है, जिसे वह कुत्ता मानती है, फिल्माती है, जब जानवर अचानक हमला करता है तो यह भयावह हो जाता है। (इंस्टाग्राम/@taii_vloger)

हाल के सप्ताहों में, खतरनाक एआई-जनित वीडियो की एक श्रृंखला ने सोशल मीडिया पर बाढ़ ला दी है, जिससे व्यापक भ्रम और चिंता पैदा हो गई है। एक विशेष रूप से वायरल क्लिप में एक बुजुर्ग महिला पर शेर द्वारा हमला किया जाता है और उसे खींचकर ले जाया जाता है, इस वीडियो ने कई लोगों को चौंका दिया, जबकि अन्य ने इसकी प्रामाणिकता पर सवाल उठाया।

यह क्लिप, जो उस महिला के हल्के-फुल्के व्लॉग के रूप में शुरू होती है, जिसे वह कुत्ता मानती है, फिल्माती है, जब जानवर अचानक झपटता है, तो यह भयावह हो जाता है। हालाँकि, डिजिटल फोरेंसिक विशेषज्ञों ने पुष्टि की है कि फुटेज वास्तविक नहीं है। यह एक डीपफेक, एआई-जनित वीडियो है जिसे परिष्कृत संपादन के माध्यम से वास्तविकता की नकल करने के लिए तैयार किया गया है।

ऐसे वीडियो, जो अक्सर धोखा देने या मनोरंजन करने के लिए बनाए जाते हैं, तेजी से आम होते जा रहे हैं। वे कृत्रिम बुद्धिमत्ता मॉडल पर भरोसा करते हैं जो चेहरे, आवाज और यहां तक ​​कि शरीर की गतिविधियों को बदल सकते हैं, जिससे अति-यथार्थवादी भ्रम पैदा हो सकता है। उदाहरण के लिए, वायरल “शेर हमले” वीडियो में, हिंसक मुठभेड़ का अनुकरण करने के लिए वास्तविक फुटेज को एआई-जनरेटेड इमेजरी के साथ मिला दिया गया था।

डीपफेक को पहली बार वर्षों पहले तब प्रसिद्धि मिली थी जब 2016 में एक वीडियो वायरल हुआ था जिसमें एक शेर को एक शिकार जोड़े पर हमला करते हुए दिखाया गया था। बाद में पता चला कि इसे एक प्रयोग के हिस्से के रूप में एक ऑस्ट्रेलियाई स्टूडियो द्वारा निर्मित किया गया था। अभी हाल ही में, एक वीडियो जिसमें भारत में एक सुपरमार्केट के अंदर एक शेर को दावत करते हुए दिखाया गया था, एक और एआई निर्माण होने की पुष्टि की गई थी।

देखें वायरल वीडियो:

ऐसे वीडियो बनाने में आसानी ने उनकी पहुंच बढ़ा दी है। Reface, FaceApp, DeepFaceLab, Faceswap, Lensa और Wombo सहित मोबाइल ऐप्स और डेस्कटॉप टूल की बढ़ती संख्या उपयोगकर्ताओं को मिनटों के भीतर यथार्थवादी सिंथेटिक मीडिया बनाने की अनुमति देती है। ये प्लेटफ़ॉर्म जीवंत दृश्य और आवाज़ें उत्पन्न करने के लिए उन्नत तंत्रिका नेटवर्क जैसे जेनरेटिव एडवरसैरियल नेटवर्क (जीएएन) और प्रसार मॉडल का उपयोग करते हैं।

हालाँकि, इन उपकरणों का उपयोग मनोरंजन के लिए किया जा सकता है, विशेषज्ञों ने चेतावनी दी है कि इनके दुरुपयोग के गंभीर परिणाम हो सकते हैं। प्रसिद्ध पत्रकार और तथ्य-जांच विशेषज्ञ जतिन गांधी ने नकली वीडियो की पहचान करने के सरल तरीके साझा किए, “एआई वीडियो इतने सहज हो गए हैं कि पेशेवर भी उन्हें पहली नज़र में पहचानने में संघर्ष कर सकते हैं।”

गांधी के अनुसार, प्रामाणिकता का परीक्षण करने का एक त्वरित तरीका वह है जिसे वह “9-सेकंड की जांच” कहते हैं। उन्होंने कहा, नौ-सेकंड के निशान के आसपास, गलत संरेखित हाथ, अजीब शारीरिक गतिविधियां, या अप्राकृतिक चेहरे के बदलाव जैसी विकृतियों को देखें। अन्य लाल झंडों में ऐसे चेहरे शामिल हैं जो स्वाभाविक रूप से पलकें झपकाने में विफल रहते हैं, बेमेल रोशनी या छाया, और प्राकृतिक श्वास या भावना के बिना कृत्रिम ध्वनि वाला ऑडियो।

संदिग्ध वीडियो को सत्यापित करने के लिए, विशेषज्ञ डीपवेयर स्कैनर, एमआईटी डिटेक्ट फेक और डीपफेक डिटेक्टर जैसे डिजिटल टूल का उपयोग करने की सलाह देते हैं, जो सिंथेटिक सामग्री के लिए अपलोड किए गए क्लिप का विश्लेषण करते हैं। रिवर्स इमेज सर्च के माध्यम से स्रोतों को क्रॉस-चेक करने से यह पुष्टि करने में भी मदद मिल सकती है कि क्या किसी वीडियो के साथ छेड़छाड़ की गई है या पुराने फुटेज से उसका पुन: उपयोग किया गया है।

कानूनी विशेषज्ञ सावधान करते हैं कि भारत में वर्तमान में डीपफेक को संबोधित करने के लिए एक समर्पित कानून का अभाव है, हालांकि मौजूदा कानून के कई प्रावधान लागू होते हैं। भारतीय न्याय संहिता (बीएनएस) के तहत, धारा 499-500 में मानहानि (2 साल तक की कैद या जुर्माने से दंडनीय) शामिल है, जबकि धारा 465 और 469 में जालसाजी शामिल है। सूचना प्रौद्योगिकी (आईटी) अधिनियम, 2000 में धारा 66डी भी शामिल है, जो कंप्यूटर से संबंधित धोखाधड़ी के लिए 3 साल तक की जेल का प्रावधान करती है।

इस बीच, सोशल मीडिया कंपनियां आईटी नियम 2021 के तहत भ्रामक या हानिकारक सामग्री की रिपोर्ट करने और उसे हटाने के लिए बाध्य हैं। 2023 में, सरकार ने एक एडवाइजरी जारी कर प्लेटफॉर्मों को डीपफेक के खिलाफ कड़ी कार्रवाई करने का निर्देश दिया।

कई हाई-प्रोफ़ाइल घटनाओं ने पहले ही कानूनी हस्तक्षेप को प्रेरित किया है। अभिनेत्री रश्मिका मंदाना के डीपफेक वीडियो के कारण दिल्ली में एफआईआर हुई, जबकि अनिल कपूर के मामले में एक अदालत के आदेश ने उनकी छवि और आवाज के दुरुपयोग पर रोक लगा दी। ऐश्वर्या राय बच्चन ने कथित तौर पर यूट्यूब पर अपनी डीपफेक क्लिप आने के बाद 4 करोड़ रुपये का मुकदमा दायर किया था।

साइबर अपराध विशेषज्ञ पीड़ितों को अपने स्थानीय साइबर सेल या इलेक्ट्रॉनिक्स और सूचना प्रौद्योगिकी मंत्रालय के शिकायत पोर्टल पर शिकायत दर्ज करने की सलाह देते हैं। सरकार नए एआई नियमों पर भी काम कर रही है जो सिंथेटिक मीडिया के लिए स्पष्ट लेबलिंग और ट्रेसबिलिटी को अनिवार्य कर सकते हैं।

जैसे-जैसे डीपफेक अधिक परिष्कृत होते जा रहे हैं, इंटरनेट उपयोगकर्ताओं के लिए चुनौती सावधानी के साथ जिज्ञासा को संतुलित करना है। जो एक चौंकाने वाला क्षण प्रतीत होता है, जैसे कि एक महिला को शेर द्वारा ले जाया जा रहा हो, वह कंप्यूटर के भ्रम से ज्यादा कुछ नहीं हो सकता है।

समाचार तकनीक वास्तविक या एआई प्रवंचना? ‘शेर के हमले’ का वीडियो जिसने ऑनलाइन लाखों लोगों को बेवकूफ बनाया
अस्वीकरण: टिप्पणियाँ उपयोगकर्ताओं के विचार दर्शाती हैं, News18 के नहीं। कृपया चर्चाएँ सम्मानजनक और रचनात्मक रखें। अपमानजनक, मानहानिकारक, या अवैध टिप्पणियाँ हटा दी जाएंगी। News18 अपने विवेक से किसी भी टिप्पणी को अक्षम कर सकता है. पोस्ट करके, आप हमारी उपयोग की शर्तों और गोपनीयता नीति से सहमत होते हैं।

और पढ़ें

Latest Posts

Subscribe

Don't Miss