नई दिल्ली: सरकार ने डीपफेक तकनीक के खतरे से निपटने के लिए तत्काल कदम उठाने का फैसला किया है, जो कृत्रिम बुद्धिमत्ता का उपयोग करके नकली और भ्रामक वीडियो और चित्र बना सकती है। केंद्रीय इलेक्ट्रॉनिक्स और सूचना प्रौद्योगिकी और संचार मंत्री अश्विनी वैष्णव ने गुरुवार को सोशल मीडिया प्लेटफॉर्म, सरकारी अधिकारियों और साइबर सुरक्षा विशेषज्ञों सहित प्रमुख हितधारकों के साथ एक बैठक बुलाई।
मंत्री ने कहा कि डीपफेक सामग्री से उत्पन्न चुनौतियों से निपटने के लिए एक व्यापक रणनीति तैयार करने के लिए बैठक आयोजित की गई थी। उन्होंने कहा कि रणनीति चार पहलुओं पर ध्यान केंद्रित करेगी: पता लगाना, रोकथाम, रिपोर्टिंग तंत्र और जागरूकता। उन्होंने कहा कि डीपफेक एक बड़ा सामाजिक खतरा बनकर उभरा है और इस पर तत्काल कार्रवाई की जरूरत है।
उन्होंने यह भी कहा कि इस मुद्दे के समाधान के लिए नए नियम लाए जाएंगे और नियमों का मसौदा तैयार करने का काम आने वाले हफ्तों में पूरा हो जाएगा। उन्होंने कहा कि सभी हितधारक खतरे की गंभीरता और सख्त विनियमन की आवश्यकता पर सहमत हुए थे। उन्होंने कहा कि डीपफेक फ्री स्पीच नहीं है, बल्कि कुछ ऐसा है जो वास्तव में समाज के लिए हानिकारक है।
मंत्री ने एक वीडियो भी साझा किया, जिसमें उन्होंने कहा कि गाजा में एक अस्पताल के पास एक नागरिक के घर के नीचे आतंकवादी समूह हमास की एक गुप्त सुरंग का प्रवेश द्वार दिखाया गया है। उन्होंने कहा कि वीडियो इस बात का उदाहरण है कि कैसे गलत सूचना और प्रचार फैलाने के लिए डीपफेक तकनीक का इस्तेमाल किया जा सकता है।
बैठक में सोशल मीडिया कंपनियों, NASSCOM और कृत्रिम बुद्धिमत्ता पर काम करने वाले प्रोफेसरों ने भाग लिया। मंत्री ने कहा कि डीपफेक के मुद्दे पर अगली बैठक दिसंबर के पहले हफ्ते में होगी. उन्होंने कहा कि सरकार समाज को डीपफेक तकनीक के हानिकारक प्रभावों से बचाने के लिए प्रतिबद्ध है।