नई दिल्ली: हालिया रश्मिका मंदाना डीपफेक विवाद भारत में एक व्यापक कानूनी और नियामक ढांचे की तत्काल आवश्यकता को रेखांकित करता है ताकि इस तरह की बेशर्म और भ्रामक सामग्री की जाँच की जा सके।
डीपफेक विवाद कानूनी ढांचे की मांग करता है
मंदाना ने ट्विटर पर वायरल डीपफेक वीडियो के खिलाफ तत्काल कार्रवाई की मांग की
इसे साझा करते हुए मुझे बहुत दुख हो रहा है और मुझे ऑनलाइन फैलाए जा रहे मेरे डीपफेक वीडियो के बारे में बात करनी पड़ रही है।
ईमानदारी से कहूं तो ऐसा कुछ न केवल मेरे लिए, बल्कि हममें से हर किसी के लिए बेहद डरावना है, जो आज प्रौद्योगिकी के दुरुपयोग के कारण बहुत अधिक नुकसान की चपेट में है।_
-रश्मिका मंदाना (@iamRashmika) 6 नवंबर 2023
बॉलीवुड सुपरस्टार अमिताभ बच्चन अब अपनी ‘अलविदा’ सह-कलाकार, रश्मिका मंदाना के कथित रूप से विकृत वीडियो के बाद कानूनी कार्रवाई की मांग में शामिल हो गए हैं।
एआई की क्षमताओं का विस्तार और बड़े पैमाने पर समाज पर इसका प्रभाव
डीपफेक जैसी अत्यधिक विश्वसनीय सामग्री बनाने में कृत्रिम बुद्धिमत्ता (एआई) की लगातार बढ़ती क्षमता ने व्यापक सामाजिक संदर्भ में काफी चिंताएं पैदा कर दी हैं। एआई का उदय अब सामग्री निर्माण की प्रकृति और नग्नता, झूठ, प्रचार और भ्रामक समाचारों को बढ़ावा देने के खतरे पर एक महत्वपूर्ण बहस छेड़ रहा है।
डीपफेक क्या है, इसे समझना: यथार्थवाद और धोखे का मिश्रण
डीपफेक सिंथेटिक मीडिया का एक रूप है जिसे सावधानीपूर्वक किसी वास्तविक व्यक्ति की आवाज़, उपस्थिति या कार्यों से मिलता जुलता बनाया गया है। ये तकनीकी रूप से उन्नत रचनाएँ मशीन लर्निंग (एमएल) के एक उपसमूह, जनरेटिव आर्टिफिशियल इंटेलिजेंस (एआई) के दायरे में आती हैं। इसमें डेटासेट के जटिल पैटर्न और अनूठी विशेषताओं को सीखने के लिए प्रशिक्षण एल्गोरिदम शामिल हैं, जिसमें किसी वास्तविक व्यक्ति के वीडियो फुटेज या ऑडियो रिकॉर्डिंग शामिल हो सकते हैं। लक्ष्य एआई को आश्चर्यजनक सटीकता के साथ मूल ध्वनि या दृश्य कल्पना को फिर से बनाने में सक्षम बनाना है।
डीपफेक भाषण/वीडियो का पता लगाने में चुनौतियाँ
विशेष रूप से, शोध से पता चला है कि कृत्रिम रूप से उत्पन्न भाषण को समझने की मानवीय क्षमता पूरी तरह से विश्वसनीय नहीं है। यूनिवर्सिटी कॉलेज लंदन के शोधकर्ताओं द्वारा किए गए एक हालिया अध्ययन में एक आश्चर्यजनक निष्कर्ष सामने आया: मनुष्य केवल 73 प्रतिशत की सटीकता दर के साथ डीपफेक भाषण की पहचान कर सकते हैं। प्रतिभागियों को डीपफेक भाषण के विशिष्ट लक्षणों को पहचानने के लिए प्रशिक्षण प्राप्त करने के बाद भी, सुधार केवल मामूली था। यह हेरफेर की गई ऑडियो सामग्री से प्रामाणिक को अलग करने में बढ़ती कठिनाई को दर्शाता है।
डीपफेक: एआई ऑडियो टेक्नोलॉजी की दोहरी प्रकृति
जेनरेटिव एआई ऑडियो तकनीक, वाणी सीमाओं वाले व्यक्तियों के लिए बढ़ी हुई पहुंच जैसे सकारात्मक अनुप्रयोगों की क्षमता रखते हुए, बढ़ती चिंताओं को भी प्रस्तुत करती है। आपराधिक और राष्ट्र-राज्य दोनों तरह के दुर्भावनापूर्ण अभिनेताओं द्वारा इस तकनीक का दुरुपयोग, बड़े पैमाने पर व्यक्तियों और समाजों के लिए महत्वपूर्ण खतरा पैदा करता है।
डीपफेक: एआई के अस्तित्वगत जोखिमों पर वैश्विक चेतावनी
एक संक्षिप्त लेकिन चौंकाने वाले बयान में, प्रमुख शोधकर्ताओं, विशेषज्ञों और ओपनएआई के सैम अल्टमैन सहित सीईओ ने हाल ही में कृत्रिम बुद्धिमत्ता (एआई) से उत्पन्न अस्तित्व संबंधी खतरे के बारे में एक ताजा चेतावनी जारी की। उनकी सामूहिक आवाज़ वैश्विक स्तर पर एआई से जुड़े जोखिमों को संबोधित करने की अनिवार्यता पर जोर देती है, इसे महामारी और परमाणु युद्ध जैसे अन्य वैश्विक जोखिमों के साथ रखती है।