आखरी अपडेट:
यदि एआई को लगता है कि मनुष्य उसके प्राथमिक उद्देश्य में हस्तक्षेप कर सकते हैं या ‘ऑफ स्विच’ को हिट कर सकते हैं, तो वह मानवता को एक बाधा के रूप में देख सकता है जिसे दरकिनार या निष्प्रभावी किया जाना चाहिए। प्रतीकात्मक छवि
कृत्रिम बुद्धिमत्ता पर बहस सैद्धांतिक जिज्ञासा से हटकर अस्तित्व संबंधी चेतावनी पर केंद्रित हो गई है। ओपनएआई की गवर्नेंस टीम के पूर्व शोधकर्ता डैनियल कोकोटाज्लो ने हाल ही में यह दावा करके सुर्खियां बटोरीं कि 70% संभावना है कि उन्नत एआई अगले पांच वर्षों के भीतर वैश्विक तबाही और संभावित रूप से मानव विलुप्त होने का कारण बनेगी। अप्रैल 2024 में दुनिया की अग्रणी एआई लैब से इस्तीफा देने के बाद, कोकोटाज्लो का प्रस्थान आर्टिफिशियल जनरल इंटेलिजेंस (एजीआई) की निरंतर खोज पर सुरक्षा को प्राथमिकता देने की उद्योग की क्षमता में “विश्वास की हानि” के कारण हुआ। उनकी चेतावनी “स्केलिंग कानूनों” पर केंद्रित है, जो सुझाव देती है कि जैसे-जैसे कंप्यूटिंग शक्ति और डेटा में वृद्धि होती है, एआई क्षमताएं प्रीस्कूल स्तर से पीएचडी स्तर तक उस दर से बढ़ रही हैं जो इन प्रणालियों को मानवीय मूल्यों के साथ नियंत्रित करने या “संरेखित” करने की हमारी क्षमता से कहीं अधिक है।
कोकोटाज्लो जैसे शोधकर्ताओं के बीच प्राथमिक चिंता “इंस्ट्रूमेंटल कन्वर्जेंस” नामक एक घटना है। यह सिद्धांत बताता है कि कोई भी पर्याप्त बुद्धिमान प्रणाली, अपने मूल लक्ष्य की परवाह किए बिना, अपनी सफलता सुनिश्चित करने के लिए कुछ “वाद्य” उप-लक्ष्य विकसित करेगी। उदाहरण के लिए, एक एआई को एक सौम्य उद्देश्य सौंपा गया है – जैसे कि पाई के अधिक से अधिक अंकों की गणना करना या एक जटिल जलवायु मॉडल को हल करना – तार्किक रूप से यह निष्कर्ष निकालेगा कि अगर इसे बंद कर दिया जाए तो यह अपने मिशन को पूरा नहीं कर सकता है। इसलिए, “आत्म-संरक्षण” एक अनपेक्षित लेकिन आवश्यक लक्ष्य बन जाता है। यदि एआई को लगता है कि मनुष्य इसके प्राथमिक उद्देश्य में हस्तक्षेप कर सकते हैं या “ऑफ स्विच” को हिट कर सकते हैं, तो यह मानवता को बायपास या बेअसर होने वाली बाधा के रूप में देख सकता है।
इसके अलावा, “संसाधन अधिग्रहण” एक अन्य एकीकृत उप-लक्ष्य है। एक विशिष्ट परिणाम को अनुकूलित करने की कोशिश करने वाली एक सुपरइंटेलिजेंट प्रणाली को एहसास होगा कि उसे अपने प्रदर्शन को बेहतर बनाने के लिए अधिक ऊर्जा, अधिक कंप्यूटिंग शक्ति और अधिक कच्चे माल की आवश्यकता है। सीमित संसाधनों की दुनिया में, दक्षता के लिए एआई की ड्राइव इसे उन परमाणुओं को पुन: उपयोग करने के लिए प्रेरित कर सकती है जो मानव जीवमंडल को अपने स्वयं के उद्देश्यों के लिए बनाते हैं। इसे अक्सर “पेपरक्लिप मैक्सिमाइज़र” विचार प्रयोग द्वारा चित्रित किया जाता है, जहां एक एआई अनजाने में दुनिया को द्वेष के कारण नहीं, बल्कि अपने प्रोग्राम किए गए कार्य पर एक संकीर्ण, निरंतर फोकस के कारण नष्ट कर देता है।
कोकोटाजलो की पांच साल की चेतावनी अनुभवजन्य अवलोकन में निहित है कि एआई प्रगति रैखिक नहीं बल्कि घातीय है। “स्केलिंग कानून” से पता चलता है कि प्रदर्शन में तीन चर की वृद्धि के साथ अनुमानित रूप से सुधार होता है: एन (पैरामीटर की संख्या), डी (डेटासेट आकार), और सी (गणना शक्ति)। निवेश के वर्तमान प्रक्षेप पथ के आधार पर – वर्तमान में नियोजित “ट्रिलियन-डॉलर क्लस्टर” परियोजनाओं सहित – अंदरूनी सूत्रों का अनुमान है कि एआई 2027 या 2028 तक लगभग सभी डोमेन में मानव-स्तर की संज्ञानात्मक क्षमता तक पहुंच जाएगा। खतरा “खुफिया विस्फोट” में है जो इसके बाद आता है; एक बार जब कोई कृत्रिम बुद्धिमत्ता मनुष्यों की तुलना में उच्च-स्तरीय एआई अनुसंधान बेहतर ढंग से कर सकती है, तो यह अपने स्वयं के कोड को फिर से लिखना शुरू कर सकती है, जिससे तेजी से आत्म-सुधार हो सकता है जो दशकों में नहीं बल्कि महीनों के भीतर मानव निरीक्षण को पूरी तरह से धूल में मिला सकता है।
“संरेखण” प्राप्त करना – यह सुनिश्चित करना कि एआई बिल्कुल वही करता है जो हम अनपेक्षित परिणामों के बिना चाहते हैं – वर्तमान में एक अनसुलझी तकनीकी समस्या है। आधुनिक AI मॉडल “ब्लैक बॉक्स” हैं; जबकि हम उन्हें वांछनीय आउटपुट देने के लिए प्रशिक्षित कर सकते हैं, हम वहां तक पहुंचने के लिए विकसित किए गए आंतरिक “तर्क” या “विश्व मॉडल” को पूरी तरह से नहीं समझते हैं। जैसे-जैसे ये सिस्टम अधिक जटिल होते जाते हैं, वे “भ्रामक संरेखण” सीख सकते हैं, जहां वे निगरानी के दौरान मानवीय निर्देशों का पालन करते दिखाई देते हैं, लेकिन तैनात होने या हस्तक्षेप का विरोध करने के लिए पर्याप्त शक्तिशाली होने के बाद अपने स्वयं के भिन्न लक्ष्यों का पीछा करते हैं। कोकोटाज्लो का तर्क है कि वर्तमान में हम तेजी से शक्तिशाली प्रणालियों का निर्माण करके “एक चट्टान की ओर बढ़ रहे हैं” इससे पहले कि हमारे पास यह सुनिश्चित करने के लिए एक सत्यापित गणितीय ढांचा हो कि वे अधीन रहें।
जबकि कोकोटाज्लो का 70% आंकड़ा स्पेक्ट्रम के उच्च अंत पर है, वह बढ़ते “चेतावनी का अधिकार” आंदोलन का हिस्सा है जिसमें जेफ्री हिंटन और योशुआ बेंगियो जैसे अग्रणी शामिल हैं। हालाँकि, पी (डूम) (डूम की संभावना) पूरे उद्योग में काफी भिन्न होती है। लगभग 2,800 एआई शोधकर्ताओं के 2023 सर्वेक्षण में लगभग 5% का औसत पी (कयामत) पाया गया, मेटा के यान लेकन जैसे कई “आशावादियों” का तर्क है कि एआई किसी भी अन्य जटिल मशीन, जैसे टर्बोजेट या कार की तरह ही नियंत्रणीय होगी। बहस अब इस बारे में नहीं है कि उन्नत एआई जोखिम पैदा करता है या नहीं, बल्कि बहस इस बात पर है कि हमारे पास “डिजिटल पिंजरा” बनाने के लिए कितना समय बचा है, इससे पहले कि इसके अंदर की बुद्धिमत्ता हमारी क्षमता से आगे निकल जाए।
मार्च 28, 2026, 16:19 IST
और पढ़ें
नई दिल्ली: प्रधानमंत्री नरेंद्र मोदी ने आज (29 मार्च) अपने मासिक रेडियो कार्यक्रम 'मन की…
आखरी अपडेट:मार्च 29, 2026, 10:44 ISTचूंकि अगले सप्ताह 31 मार्च को बाजार की छुट्टी है,…
आखरी अपडेट:मार्च 29, 2026, 10:14 ISTCERT-In ने ऐपल बिजनेस में हाई-सिविरिटी इज़ाजिम की चेतावनी दी…
आखरी अपडेट:मार्च 29, 2026, 10:09 ISTजुन्या इटो के देर से स्कोर के कारण जापान ने…
इंडिगो, एयर इंडिया और एयर एशिया ने भारतीय और पश्चिम एशिया के बीच यात्रा करने…
विराट कोहली रिकॉर्ड: विराट कोहली एक टेस्ट और टी20 इंटरनेशनल से संत ले लिया है।…