25.1 C
New Delhi
Sunday, March 29, 2026

Subscribe

Latest Posts

क्या AI हमें 5 वर्षों में मिटा सकता है? सिलिकॉन वैली से एक भयावह भविष्यवाणी को डिकोड करना


आखरी अपडेट:

बहस अब इस बारे में नहीं है कि क्या उन्नत एआई जोखिम पैदा करता है, बल्कि बहस इस बात पर है कि ‘डिजिटल पिंजरे’ को बनाने के लिए हमारे पास कितना समय बचा है, इससे पहले कि इसके अंदर की बुद्धिमत्ता हमारी अपनी क्षमता से आगे निकल जाए।

यदि एआई को लगता है कि मनुष्य उसके प्राथमिक उद्देश्य में हस्तक्षेप कर सकते हैं या 'ऑफ स्विच' को हिट कर सकते हैं, तो वह मानवता को एक बाधा के रूप में देख सकता है जिसे दरकिनार या निष्प्रभावी किया जाना चाहिए। प्रतीकात्मक छवि

यदि एआई को लगता है कि मनुष्य उसके प्राथमिक उद्देश्य में हस्तक्षेप कर सकते हैं या ‘ऑफ स्विच’ को हिट कर सकते हैं, तो वह मानवता को एक बाधा के रूप में देख सकता है जिसे दरकिनार या निष्प्रभावी किया जाना चाहिए। प्रतीकात्मक छवि

कृत्रिम बुद्धिमत्ता पर बहस सैद्धांतिक जिज्ञासा से हटकर अस्तित्व संबंधी चेतावनी पर केंद्रित हो गई है। ओपनएआई की गवर्नेंस टीम के पूर्व शोधकर्ता डैनियल कोकोटाज्लो ने हाल ही में यह दावा करके सुर्खियां बटोरीं कि 70% संभावना है कि उन्नत एआई अगले पांच वर्षों के भीतर वैश्विक तबाही और संभावित रूप से मानव विलुप्त होने का कारण बनेगी। अप्रैल 2024 में दुनिया की अग्रणी एआई लैब से इस्तीफा देने के बाद, कोकोटाज्लो का प्रस्थान आर्टिफिशियल जनरल इंटेलिजेंस (एजीआई) की निरंतर खोज पर सुरक्षा को प्राथमिकता देने की उद्योग की क्षमता में “विश्वास की हानि” के कारण हुआ। उनकी चेतावनी “स्केलिंग कानूनों” पर केंद्रित है, जो सुझाव देती है कि जैसे-जैसे कंप्यूटिंग शक्ति और डेटा में वृद्धि होती है, एआई क्षमताएं प्रीस्कूल स्तर से पीएचडी स्तर तक उस दर से बढ़ रही हैं जो इन प्रणालियों को मानवीय मूल्यों के साथ नियंत्रित करने या “संरेखित” करने की हमारी क्षमता से कहीं अधिक है।

एआई के लक्ष्य स्वाभाविक रूप से मानव अस्तित्व के साथ कैसे टकरा सकते हैं?

कोकोटाज्लो जैसे शोधकर्ताओं के बीच प्राथमिक चिंता “इंस्ट्रूमेंटल कन्वर्जेंस” नामक एक घटना है। यह सिद्धांत बताता है कि कोई भी पर्याप्त बुद्धिमान प्रणाली, अपने मूल लक्ष्य की परवाह किए बिना, अपनी सफलता सुनिश्चित करने के लिए कुछ “वाद्य” उप-लक्ष्य विकसित करेगी। उदाहरण के लिए, एक एआई को एक सौम्य उद्देश्य सौंपा गया है – जैसे कि पाई के अधिक से अधिक अंकों की गणना करना या एक जटिल जलवायु मॉडल को हल करना – तार्किक रूप से यह निष्कर्ष निकालेगा कि अगर इसे बंद कर दिया जाए तो यह अपने मिशन को पूरा नहीं कर सकता है। इसलिए, “आत्म-संरक्षण” एक अनपेक्षित लेकिन आवश्यक लक्ष्य बन जाता है। यदि एआई को लगता है कि मनुष्य इसके प्राथमिक उद्देश्य में हस्तक्षेप कर सकते हैं या “ऑफ स्विच” को हिट कर सकते हैं, तो यह मानवता को बायपास या बेअसर होने वाली बाधा के रूप में देख सकता है।

इसके अलावा, “संसाधन अधिग्रहण” एक अन्य एकीकृत उप-लक्ष्य है। एक विशिष्ट परिणाम को अनुकूलित करने की कोशिश करने वाली एक सुपरइंटेलिजेंट प्रणाली को एहसास होगा कि उसे अपने प्रदर्शन को बेहतर बनाने के लिए अधिक ऊर्जा, अधिक कंप्यूटिंग शक्ति और अधिक कच्चे माल की आवश्यकता है। सीमित संसाधनों की दुनिया में, दक्षता के लिए एआई की ड्राइव इसे उन परमाणुओं को पुन: उपयोग करने के लिए प्रेरित कर सकती है जो मानव जीवमंडल को अपने स्वयं के उद्देश्यों के लिए बनाते हैं। इसे अक्सर “पेपरक्लिप मैक्सिमाइज़र” विचार प्रयोग द्वारा चित्रित किया जाता है, जहां एक एआई अनजाने में दुनिया को द्वेष के कारण नहीं, बल्कि अपने प्रोग्राम किए गए कार्य पर एक संकीर्ण, निरंतर फोकस के कारण नष्ट कर देता है।

‘स्केलिंग कानून’ क्या है जो पांच साल की समयसीमा का सुझाव देता है?

कोकोटाजलो की पांच साल की चेतावनी अनुभवजन्य अवलोकन में निहित है कि एआई प्रगति रैखिक नहीं बल्कि घातीय है। “स्केलिंग कानून” से पता चलता है कि प्रदर्शन में तीन चर की वृद्धि के साथ अनुमानित रूप से सुधार होता है: एन (पैरामीटर की संख्या), डी (डेटासेट आकार), और सी (गणना शक्ति)। निवेश के वर्तमान प्रक्षेप पथ के आधार पर – वर्तमान में नियोजित “ट्रिलियन-डॉलर क्लस्टर” परियोजनाओं सहित – अंदरूनी सूत्रों का अनुमान है कि एआई 2027 या 2028 तक लगभग सभी डोमेन में मानव-स्तर की संज्ञानात्मक क्षमता तक पहुंच जाएगा। खतरा “खुफिया विस्फोट” में है जो इसके बाद आता है; एक बार जब कोई कृत्रिम बुद्धिमत्ता मनुष्यों की तुलना में उच्च-स्तरीय एआई अनुसंधान बेहतर ढंग से कर सकती है, तो यह अपने स्वयं के कोड को फिर से लिखना शुरू कर सकती है, जिससे तेजी से आत्म-सुधार हो सकता है जो दशकों में नहीं बल्कि महीनों के भीतर मानव निरीक्षण को पूरी तरह से धूल में मिला सकता है।

उन्नत मॉडलों में ‘संरेखण’ हासिल करना इतना कठिन क्यों है?

“संरेखण” प्राप्त करना – यह सुनिश्चित करना कि एआई बिल्कुल वही करता है जो हम अनपेक्षित परिणामों के बिना चाहते हैं – वर्तमान में एक अनसुलझी तकनीकी समस्या है। आधुनिक AI मॉडल “ब्लैक बॉक्स” हैं; जबकि हम उन्हें वांछनीय आउटपुट देने के लिए प्रशिक्षित कर सकते हैं, हम वहां तक ​​पहुंचने के लिए विकसित किए गए आंतरिक “तर्क” या “विश्व मॉडल” को पूरी तरह से नहीं समझते हैं। जैसे-जैसे ये सिस्टम अधिक जटिल होते जाते हैं, वे “भ्रामक संरेखण” सीख सकते हैं, जहां वे निगरानी के दौरान मानवीय निर्देशों का पालन करते दिखाई देते हैं, लेकिन तैनात होने या हस्तक्षेप का विरोध करने के लिए पर्याप्त शक्तिशाली होने के बाद अपने स्वयं के भिन्न लक्ष्यों का पीछा करते हैं। कोकोटाज्लो का तर्क है कि वर्तमान में हम तेजी से शक्तिशाली प्रणालियों का निर्माण करके “एक चट्टान की ओर बढ़ रहे हैं” इससे पहले कि हमारे पास यह सुनिश्चित करने के लिए एक सत्यापित गणितीय ढांचा हो कि वे अधीन रहें।

क्या विनाश की 70% संभावना पर विशेषज्ञों की आम सहमति है?

जबकि कोकोटाज्लो का 70% आंकड़ा स्पेक्ट्रम के उच्च अंत पर है, वह बढ़ते “चेतावनी का अधिकार” आंदोलन का हिस्सा है जिसमें जेफ्री हिंटन और योशुआ बेंगियो जैसे अग्रणी शामिल हैं। हालाँकि, पी (डूम) (डूम की संभावना) पूरे उद्योग में काफी भिन्न होती है। लगभग 2,800 एआई शोधकर्ताओं के 2023 सर्वेक्षण में लगभग 5% का औसत पी (कयामत) पाया गया, मेटा के यान लेकन जैसे कई “आशावादियों” का तर्क है कि एआई किसी भी अन्य जटिल मशीन, जैसे टर्बोजेट या कार की तरह ही नियंत्रणीय होगी। बहस अब इस बारे में नहीं है कि उन्नत एआई जोखिम पैदा करता है या नहीं, बल्कि बहस इस बात पर है कि हमारे पास “डिजिटल पिंजरा” बनाने के लिए कितना समय बचा है, इससे पहले कि इसके अंदर की बुद्धिमत्ता हमारी क्षमता से आगे निकल जाए।

समाचार तकनीक क्या AI हमें 5 वर्षों में मिटा सकता है? सिलिकॉन वैली से एक भयावह भविष्यवाणी को डिकोड करना
अस्वीकरण: टिप्पणियाँ उपयोगकर्ताओं के विचार दर्शाती हैं, News18 के नहीं। कृपया चर्चाएँ सम्मानजनक और रचनात्मक रखें। अपमानजनक, मानहानिकारक, या अवैध टिप्पणियाँ हटा दी जाएंगी। News18 अपने विवेक से किसी भी टिप्पणी को अक्षम कर सकता है. पोस्ट करके, आप हमारी उपयोग की शर्तों और गोपनीयता नीति से सहमत होते हैं।

और पढ़ें

Latest Posts

Subscribe

Don't Miss