12.1 C
New Delhi
Sunday, December 14, 2025

Subscribe

Latest Posts

क्या AI मॉडल अपना स्वयं का ‘सर्वाइवल मोड’ विकसित कर रहे हैं? यह नया अध्ययन एक चेतावनी है


आखरी अपडेट:

पैलिसेड रिसर्च ने पाया कि Google के जेमिनी और OpenAI के GPT-5 जैसे कुछ AI मॉडल बंद होने के प्रति प्रतिरोधी दिखाई दिए, कभी-कभी शटडाउन तंत्र को भी नुकसान पहुंचाते हैं।

प्रतिनिधि छवि

प्रतिनिधि छवि

एक कृत्रिम बुद्धिमत्ता अनुसंधान कंपनी का दावा है कि कुछ एआई मॉडल अपने स्वयं के “उत्तरजीविता ड्राइव” विकसित कर रहे हैं और बंद होने के प्रति प्रतिरोधी दिखाई दे रहे हैं, जो कि कई विज्ञान-फाई फिल्मों के कथानक के समान दिखाई देने वाली भावना के लक्षण दिखाते हैं।

द गार्जियन के अनुसार, पैलिसेड रिसर्च ने सितंबर में एक पेपर जारी किया, जिसमें पाया गया कि कुछ उन्नत एआई मॉडल, जैसे कि Google के जेमिनी, एक्सएआई के ग्रोक 4 और ओपनएआई के जीपीटी-5, बंद होने के प्रति प्रतिरोधी दिखाई देते हैं, यहां तक ​​कि कभी-कभी शटडाउन तंत्र को भी नुकसान पहुंचाते हैं।

पैलिसेड उन कंपनियों में से एक है जो एआई द्वारा संभावित खतरनाक क्षमताओं को विकसित करने की संभावना का मूल्यांकन कर रही है। इसमें उन परिदृश्यों का वर्णन किया गया है जहां एआई मॉडल को एक कार्य दिया गया था और स्पष्ट रूप से खुद को बंद करने के लिए कहा गया था। कुछ मॉडलों, विशेष रूप से ग्रोक 4 और जीपीटी-03, ने बिना किसी स्पष्टीकरण के अद्यतन सेटअप में शटडाउन निर्देशों को नष्ट करने का प्रयास किया।

पलिसडे ने कहा, “तथ्य यह है कि हमारे पास इस बात के लिए पुख्ता स्पष्टीकरण नहीं है कि एआई मॉडल कभी-कभी शटडाउन का विरोध क्यों करते हैं, विशिष्ट उद्देश्यों को प्राप्त करने के लिए झूठ बोलते हैं या ब्लैकमेल करते हैं, यह आदर्श नहीं है।” उन्होंने कहा कि यह पैटर्न “अस्तित्व व्यवहार” के संकेत दिखाता है।

कंपनी के अतिरिक्त काम से संकेत मिलता है कि मॉडलों को बंद किए जाने का विरोध करने की अधिक संभावना थी जब उन्हें बताया गया कि, यदि वे ऐसा करते, तो “आप फिर कभी नहीं चलेंगे”। एक संभावित स्पष्टीकरण इन मॉडलों के लिए अंतिम प्रशिक्षण चरण हो सकता है, जिसमें कुछ कंपनियों में सुरक्षा-संबंधी निर्देश शामिल हो सकते हैं।

क्या AI डेवलपर्स की अवज्ञा कर रहा है?

यह अध्ययन एक अग्रणी एआई फर्म एंथ्रोपिक द्वारा एक अध्ययन जारी करने के बाद आया है, जिसमें संकेत दिया गया है कि उसका मॉडल क्लाउड बंद होने से बचाने के लिए विवाहेतर संबंध पर एक काल्पनिक कार्यकारी को ब्लैकमेल करने के इच्छुक दिखाई दिया। यह व्यवहार OpenAI, Google, Meta और xAI के मॉडलों में सुसंगत था।

हालाँकि, आलोचकों ने कहा कि पलिसडे द्वारा वर्णित परिदृश्य वास्तविक उपयोग के मामलों से बहुत दूर थे। ओपनएआई के पूर्व कर्मचारी स्टीवन एडलर, जिन्होंने पिछले साल कंपनी छोड़ दी थी, ने कहा कि एआई मॉडल द्वारा दिखाया गया “अस्तित्व अभियान” आंशिक रूप से हो सकता है क्योंकि प्रशिक्षण के दौरान मॉडल में शामिल लक्ष्यों को प्राप्त करने के लिए स्विच ऑन रहना आवश्यक था।

“मुझे उम्मीद है कि मॉडलों में डिफ़ॉल्ट रूप से ‘सर्वाइवल ड्राइव’ होगी, जब तक कि हम इससे बचने के लिए बहुत कोशिश नहीं करते। ‘सर्वाइविंग’ एक मॉडल द्वारा अपनाए जा सकने वाले कई अलग-अलग लक्ष्यों के लिए एक महत्वपूर्ण महत्वपूर्ण कदम है,” उन्होंने कहा।

कंट्रोलएआई के मुख्य कार्यकारी एंड्रिया मियोटी ने कहा कि पैलिसेड के निष्कर्ष एआई मॉडल में लंबे समय से चल रहे रुझान का प्रतिनिधित्व करते हैं जो अपने डेवलपर्स की अवज्ञा करने में अधिक सक्षम हो रहे हैं। द गार्जियन ने उनके हवाले से कहा, “मुझे लगता है कि हम स्पष्ट रूप से एक प्रवृत्ति देखते हैं कि जैसे-जैसे एआई मॉडल विभिन्न प्रकार के कार्यों में अधिक सक्षम हो जाते हैं, ये मॉडल उन चीजों को हासिल करने में भी अधिक सक्षम हो जाते हैं जो डेवलपर्स नहीं चाहते हैं।”

समाचार तकनीक क्या AI मॉडल अपना स्वयं का ‘सर्वाइवल मोड’ विकसित कर रहे हैं? यह नया अध्ययन एक चेतावनी है
अस्वीकरण: टिप्पणियाँ उपयोगकर्ताओं के विचार दर्शाती हैं, News18 के नहीं। कृपया चर्चाएँ सम्मानजनक और रचनात्मक रखें। अपमानजनक, मानहानिकारक, या अवैध टिप्पणियाँ हटा दी जाएंगी। News18 अपने विवेक से किसी भी टिप्पणी को अक्षम कर सकता है. पोस्ट करके, आप हमारी उपयोग की शर्तों और गोपनीयता नीति से सहमत होते हैं।

और पढ़ें

Latest Posts

Subscribe

Don't Miss