17.1 C
New Delhi
Thursday, November 21, 2024

Subscribe

Latest Posts

क्या AI नौकरियों और निजता के लिए असली खतरा है? विशेषज्ञ ने महत्वपूर्ण पहलुओं पर प्रकाश डाला


नई दिल्ली: AI दुनिया भर के उद्योगों में क्रांति ला रहा है- स्वास्थ्य सेवा से लेकर तकनीक और रचनात्मक उद्योगों तक- थकाऊ कार्यों को स्वचालित करके और नए अवसरों के द्वार खोलकर। जबकि नौकरी के विस्थापन के बारे में चिंताएँ मौजूद हैं, AI अपस्किलिंग और उन भूमिकाओं के निर्माण के माध्यम से विकास के अवसर प्रदान करता है जो पहले मौजूद नहीं थे।

नैतिक एआई शासन और उचित साइबर सुरक्षा बुनियादी ढांचे के साथ सार्वजनिक-निजी भागीदारी यह सुनिश्चित कर सकती है कि यह तकनीक मनुष्यों के सर्वोत्तम हितों को साकार करे। जैसे-जैसे एआई विकसित होता है, यह प्रगति, सुरक्षा और अवसर के बीच संतुलन बनाते हुए वैश्विक परिदृश्य को बदल देता है।

हाल ही में एक ईमेल साक्षात्कार में, एनकोरा के सीईओ और एचसीएल टेक्नोलॉजीज के पूर्व डिजिटल बिजनेस हेड आनंद बिरजे ने उन्नत प्रौद्योगिकियों से उत्पन्न अस्तित्वगत जोखिमों पर अपनी अंतर्दृष्टि साझा की।

जनरेटिव एआई रोजगार सृजन को कैसे प्रभावित कर रहा है?

AI नौकरी के परिदृश्य को नया आकार दे रहा है, लेकिन यह प्रतिस्थापन की एक सरल कहानी नहीं है। हम स्वास्थ्य सेवा, तकनीक, रचनात्मक क्षेत्रों और हर कार्यक्षेत्र में बड़े बदलाव देख सकते हैं, जिसमें AI दोहराव वाले और नीरस कार्यों को कम करके मौजूदा भूमिकाओं के दायरे को बढ़ा रहा है। हालाँकि, जहाँ नियमित कार्यों से जुड़ी कुछ भूमिकाएँ चरणबद्ध तरीके से समाप्त हो सकती हैं, वहीं AI पूरी तरह से नई भूमिकाएँ, ज़िम्मेदारियाँ और पद भी बनाएगा जो वर्तमान में मौजूद नहीं हैं।

उद्यमों के साथ-साथ व्यक्तियों के लिए भी, परिवर्तन के इन समयों को नेविगेट करने की कुंजी अनुकूलन है। उनके अनुसार “हमें लोगों को प्रशिक्षित करने और एक ऐसी संस्कृति बनाने पर ध्यान केंद्रित करने की आवश्यकता है जहाँ अपस्किलिंग और रीस्किलिंग निरंतर हो। इस सांस्कृतिक बदलाव के लिए व्यक्तिगत मानसिकता में बदलाव की आवश्यकता है और इसे उद्यमों के लिए परिवर्तन प्रबंधन रणनीतियों का एक अनिवार्य हिस्सा होना चाहिए”।

दूरदर्शी उद्यम पहले से ही अपने लोगों को एआई द्वारा लाए जा रहे परिवर्तन के वास्तविक पैमाने को समझने और सराहने में मदद कर रहे हैं – और चुनौतियों के साथ-साथ उनके करियर में प्रगति के लिए इसके द्वारा प्रस्तुत अवसरों को भी समझने में मदद कर रहे हैं।

एआई नौकरियों के लिए अस्तित्व का खतरा नहीं है, जिससे कई लोग डरते हैं, हालांकि, यह हमें काम की प्रकृति को फिर से आविष्कार करने और इसकी पूरी क्षमता का दोहन करने की प्रक्रिया में व्यक्तियों के रूप में विकसित होने के लिए मजबूर करेगा। आप पहिये के साथ एक समानांतर रेखा खींच सकते हैं।

इसके आविष्कार से पहले भी मनुष्य यात्रा कर सकता था और सामान का परिवहन करता था, लेकिन पहिये ने हमें ऊर्जा और समय बचाकर अन्य क्षेत्रों पर ध्यान केंद्रित करने का अवसर दिया तथा हमारी सभ्यता के लिए प्रगति के नए रास्ते खोले।

एंड-टू-एंड एन्क्रिप्शन डेटा लीक को रोकने में विफल?

आजकल सोशल मीडिया प्लेटफॉर्म पर भरोसा एक बड़ा मुद्दा है, जो दुनिया भर में लाखों उपयोगकर्ताओं को प्रभावित कर रहा है, जिसमें हम सभी शामिल हैं। एन्क्रिप्शन मदद करता है, लेकिन यह पर्याप्त नहीं है; यह एक जटिल पहेली का सिर्फ़ एक टुकड़ा है। हमें एक बहुस्तरीय दृष्टिकोण की आवश्यकता है जिसमें पारदर्शिता, अनुपालन और जवाबदेही शामिल हो। हाल के दिनों में इस दिशा में बदलाव देखा गया है, जिसमें कंपनियाँ भौगोलिक स्थान के साथ-साथ उपयोगकर्ता डेटा का लाभ उठाने की योजना का खुलासा कर रही हैं।

जहाँ तक विनियमनों का सवाल है, हमें सही संतुलन खोजने की आवश्यकता है। उनके अनुसार, “हमें ऐसे ढाँचों की आवश्यकता है जो तकनीकी प्रगति की अनुमति देते हुए भी उपयोगकर्ताओं की सुरक्षा करें। इन ढाँचों को विभिन्न भौगोलिक क्षेत्रों की अनूठी जटिलताओं को संबोधित करना चाहिए, स्थानीय विनियमों और वैश्विक मानकों का अनुपालन करना चाहिए, और नवाचार और रचनात्मकता के लिए जगह छोड़ते हुए उपयोगकर्ता गोपनीयता की रक्षा करनी चाहिए”।

टेक इंडस्ट्री को आगे आकर 'डिजाइन के हिसाब से गोपनीयता' का दृष्टिकोण अपनाना चाहिए। इसका मतलब है कि उत्पादों और सेवाओं में शुरू से ही सुरक्षा के उपाय किए जाने चाहिए, न कि बाद में सोचे जाने चाहिए।

यह बात आज की दुनिया में पहले से कहीं ज़्यादा सच है, जहाँ पहचान की चोरी, गलत सूचना और हेरफेर के लिए AI का इस्तेमाल किया जा रहा है। आखिरकार, भरोसा बनाने के लिए तकनीकी कंपनियों, नियामकों और खुद उपयोगकर्ताओं के बीच गहन सहयोग की आवश्यकता होगी, और यह एक महत्वपूर्ण कारक है जिस पर विचार करना होगा क्योंकि हम AI दुनिया के अनुकूल डिजिटल चैनलों को फिर से डिज़ाइन करते हैं।

क्या हमें एआई के अस्तित्व के खतरे के बारे में चिंतित होना चाहिए?

हमें इन चेतावनियों को गंभीरता से लेना चाहिए। लेकिन तत्काल, ठोस जोखिमों और दीर्घकालिक, सट्टा चिंताओं के बीच अंतर करना भी महत्वपूर्ण है। आज हम जिन वास्तविक खतरों का सामना कर रहे हैं, वे एआई वर्चस्व के विज्ञान-फाई परिदृश्य नहीं हैं। वे अधिक सूक्ष्म हैं – एआई पूर्वाग्रह, गोपनीयता उल्लंघन, इको चैंबर और गलत सूचना का प्रसार जैसी चीजें। ये वास्तविक समस्याएं हैं जो अभी वास्तविक लोगों को प्रभावित कर रही हैं।

इन समस्याओं को हल करने के लिए हमें सहयोग की आवश्यकता है। यह ऐसी चीज़ नहीं है जिसे कोई एक कंपनी या कोई एक देश अकेले हल कर सकता है। उनके अनुसार, “हमें सरकारों, तकनीकी फर्मों और शिक्षाविदों को एक साथ काम करने की आवश्यकता है ताकि यह सुनिश्चित किया जा सके कि एआई के उपयोग से जुड़े क्षेत्रों के लिए नैतिकता, पारदर्शिता और अनुपालन के मानक तय किए जाएं। एआई के लाभों के साथ-साथ इससे जुड़े नुकसानों के बारे में सार्वजनिक शिक्षा भी महत्वपूर्ण है, ताकि सुरक्षित उपयोग सुनिश्चित किया जा सके”।

लेकिन बात यह है कि जब हम इन जोखिमों पर काम कर रहे हैं, तो हम यह नहीं भूल सकते कि AI कितना अच्छा कर सकता है। यह एक शक्तिशाली उपकरण है जो बड़ी वैश्विक समस्याओं को हल करने में मदद कर सकता है। हमें AI के साथ सावधान रहने की जरूरत है, लेकिन साथ ही इस बात को लेकर आशावान भी रहना चाहिए कि यह क्या हासिल कर सकता है। यह हमारी पीढ़ी के लिए एक बड़ी चुनौती है, और हमें इसके लिए कदम उठाने की जरूरत है।

डिजिटल धोखाधड़ी से निपटने में सरकार कहां पीछे रह गई?

ऑनलाइन वित्तीय धोखाधड़ी एक बढ़ती हुई चिंता है। जबकि सरकार ने प्रयास किए हैं, हम अभी भी पीछे चल रहे हैं। मुख्य चुनौती गति है – साइबर अपराधी तेजी से आगे बढ़ते हैं, और हमारे कानूनी और नियामक ढांचे अक्सर उनके साथ तालमेल बिठाने में संघर्ष करते हैं। जेन एआई जैसी आधुनिक तकनीकों के आगमन के साथ, साइबर अपराध परिष्कार, पैमाने और गति में बढ़ता जा रहा है।

विनियामक निकायों और सरकारी एजेंसियों को प्रौद्योगिकी कंपनियों के साथ मिलकर काम करना चाहिए और साइबर अपराधों के खिलाफ़ सर्वश्रेष्ठ तकनीकी प्रतिभा को सामने लाना चाहिए। उनके अनुसार, “हमें बॉक्स के बाहर सोचने की ज़रूरत है, उदाहरण के लिए, प्रौद्योगिकी कंपनियों और सरकारी एजेंसियों के बीच एक वास्तविक समय का खतरा साझा करने वाला प्लेटफ़ॉर्म बनाना चाहिए जो वित्तीय साइबर अपराध को पहचानने और रोकने में मदद कर सके”।

हमें एक अधिक सक्रिय रणनीति और कानूनी ढांचे को अपडेट करने की भी आवश्यकता है। पारंपरिक कानून आधुनिक साइबर अपराध से निपटने के लिए अपर्याप्त हैं और इससे निपटने में उदासीनता या गति की कमी हो सकती है।

डिजिटल साक्षरता भी बहुत ज़रूरी है, कई धोखाधड़ी सिर्फ़ इसलिए सफल हो जाती हैं क्योंकि लोगों को जोखिमों के बारे में जानकारी नहीं होती। यह बात भारत जैसे देश के लिए सही है, जहाँ ग्रामीण इलाकों और इसलिए ज़्यादातर आबादी तक इंटरनेट की व्यापक पहुँच एक नई घटना है।

संक्षेप में कहें तो वित्तीय साइबर अपराध के लिए एआई का इस्तेमाल किए जाने का जोखिम बहुत वास्तविक है। इससे प्रभावी ढंग से निपटने के लिए हमें बेहतर तकनीक, बेहतर विनियमन, बेहतर शिक्षा और विभिन्न क्षेत्रों में घनिष्ठ सहयोग की आवश्यकता है।

क्या सरकारों को एआई को विनियमित करना चाहिए?

मेरे विचार में, AI के लिए कुछ हद तक सरकारी निगरानी न केवल उचित है, बल्कि आवश्यक भी है। आदर्श रूप से सार्वजनिक-निजी भागीदारी के माध्यम से बनाई गई यह निगरानी AI की सुरक्षा और नैतिक उपयोग को सुनिश्चित करने के लिए आवश्यक है, भले ही यह तकनीक कार्य धाराओं में रचनात्मकता और नवाचार को शामिल करने के हमारे अभियान में सर्वव्यापी हो।

हमें एक ऐसे ढांचे की आवश्यकता है जो लचीला और अनुकूलनीय हो तथा पारदर्शिता, जवाबदेही और निष्पक्षता पर ध्यान केंद्रित करे। विनियामक दृष्टिकोण स्थानीय सरकारी निकायों पर बहुत अधिक निर्भर करेगा; हालाँकि, इसे स्तरीकृत किया जा सकता है ताकि निगरानी और विनियामक आवश्यकताओं का स्तर क्षमताओं और संभावित प्रभाव के सीधे आनुपातिक हो।

उदाहरण के लिए, विपणनकर्ताओं को उनकी सामग्री को अधिक आकर्षक बनाने में मदद करने के लिए उपयोग किए जाने वाले एआई को उसी स्तर की निगरानी की आवश्यकता नहीं होती है, जितनी कि स्वास्थ्य सेवा उद्योग के लिए बीमा दावों की प्रक्रिया में मदद करने वाले एआई को होती है।

उनके अनुसार, “हमें AI के व्यापक सामाजिक प्रभाव के बारे में भी सोचना चाहिए और नौकरी विस्थापन और डेटा गोपनीयता जैसे मुद्दों को हल करने के लिए सक्रिय कदम उठाने चाहिए। उन्हें अपनी दृष्टि में दृढ़ता से रखकर, हम यह सुनिश्चित कर सकते हैं कि AI को विनियमित करने के लिए विकसित की जा रही नीतियाँ जनता के सर्वोत्तम हित में हों और हमारे मूल्यों और मानवाधिकारों के अनुरूप हों”।

प्रभावी एआई विनियमन के लिए नीति निर्माताओं, उद्योग जगत के नेताओं और जनता के बीच निरंतर संवाद की आवश्यकता होगी। यह नवाचार और जिम्मेदार विकास के बीच सही संतुलन बनाने, प्रौद्योगिकी की पूरी क्षमता का दोहन करने और साथ ही हमारी सभ्यता को इसके दुष्प्रभावों से बचाने के बारे में है।

क्या एआई और रोबोटिक्स मानवता के लिए खतरा हैं?

देखिए, 'टर्मिनेटर' बेहतरीन मनोरंजन के लिए है, लेकिन हम उस वास्तविकता से बहुत दूर हैं। पहली बार AI निर्णय ले सकता है और 'टूल' से 'एजेंट' में विकसित हो गया है और वास्तविक और तत्काल जोखिम AI द्वारा दुनिया पर कब्ज़ा करने के बारे में नहीं है, बल्कि यह है कि मनुष्य कैसे उस विशाल क्षमता का दुरुपयोग कर सकते हैं जो यह लाता है। वर्तमान में, हमें गोपनीयता के उल्लंघन, स्वायत्त हथियारों, गलत सूचना और भ्रामक सूचनाओं के लिए AI के उपयोग के बारे में अधिक चिंतित होना चाहिए।

उनके अनुसार, “हम इसके विकास को आकार देने के एक महत्वपूर्ण बिंदु पर हैं, प्रौद्योगिकी के सर्वव्यापी होने से कुछ क्षण पहले। हमें सुरक्षा और वैश्विक शासन ढांचे को प्राथमिकता देने, स्पष्ट नैतिक दिशा-निर्देश और विफलता-सुरक्षा तंत्र बनाने, एआई साक्षरता में निवेश करने और महत्वपूर्ण निर्णयों पर मनुष्यों के नियंत्रण को बनाए रखने की आवश्यकता है”।

रोकथाम का मतलब है सक्रिय होना। लक्ष्य AI का बुद्धिमानी से उपयोग करना होना चाहिए। हमें इससे डरना नहीं चाहिए, लेकिन हमें इसे सही दिशा में निर्देशित करने की आवश्यकता है। यह प्रगति और जिम्मेदारी के बीच उस मधुर बिंदु को खोजने के बारे में है।

साइबर हमलों के प्रति एआई सैन्य प्रणालियाँ कितनी संवेदनशील हैं?

यह एक महत्वपूर्ण प्रश्न है। जैसे-जैसे AI हमारे मौजूदा बुनियादी ढांचे के साथ अधिक निकटता से एकीकृत होता जा रहा है, ऐसे कुछ क्षेत्र हैं जहाँ यह सबसे अधिक अराजकता पैदा करने की क्षमता रखता है। उनके अनुसार, सैन्य प्रणालियों में AI उन क्षेत्रों में से एक है जहाँ हमें अत्यधिक सावधानी से काम करने की आवश्यकता है।

डेटा विषाक्तता से लेकर निर्णयों में हेरफेर करने और संवेदनशील डेटा की चोरी और अनधिकृत पहुंच के लिए प्रतिकूल हमलों तक, ऐसे कई तरीके हैं जिनसे एआई एकीकरण सेना के लिए कमजोरियों और चुनौतियों का कारण बन सकता है और इस प्रक्रिया में महत्वपूर्ण क्षति का कारण बन सकता है।

उदाहरण के लिए, इवेशन अटैक का इस्तेमाल कुछ पिक्सल के रंग को इस तरह से बदलने के लिए किया जा सकता है कि वह मानवीय आंखों के लिए अदृश्य हो। हालाँकि, AI अब छवियों को गलत तरीके से वर्गीकृत करेगा और ऐसा आत्मविश्वास के साथ करेगा। इसका इस्तेमाल चेहरे की पहचान या लक्ष्य पहचान में शामिल AI सिस्टम पर हमला करने के लिए किया जा सकता है, जिसके परिणाम विनाशकारी हो सकते हैं।

तो हम इससे कैसे निपटें? हमें सर्वश्रेष्ठ साइबर सुरक्षा और मजबूत एआई सिस्टम की आवश्यकता है जो मानव सत्यापन के लिए अपने निर्णयों को स्पष्ट कर सकें। यह एक ऐसा क्षेत्र है जहाँ सरकारी एजेंसियों को सलाह दी जाती है कि वे प्रौद्योगिकी कंपनियों के साथ मिलकर एआई सिस्टम लागू करें जो हेरफेर की पहचान कर सकें और उसका विरोध कर सकें, संवेदनशील डिजिटल बुनियादी ढांचे के लिए जीरो ट्रस्ट आर्किटेक्चर ला सकें और महत्वपूर्ण स्थितियों के लिए निर्णय लेने की प्रक्रिया में मनुष्यों को शामिल कर सकें।

एआई को सैन्य निर्णय लेने में सहायता करनी चाहिए, न कि मानवीय निर्णय का स्थान लेना चाहिए।

Latest Posts

Subscribe

Don't Miss