आखरी अपडेट:
पैलिसेड रिसर्च ने पाया कि Google के जेमिनी और OpenAI के GPT-5 जैसे कुछ AI मॉडल बंद होने के प्रति प्रतिरोधी दिखाई दिए, कभी-कभी शटडाउन तंत्र को भी नुकसान पहुंचाते हैं।
प्रतिनिधि छवि
एक कृत्रिम बुद्धिमत्ता अनुसंधान कंपनी का दावा है कि कुछ एआई मॉडल अपने स्वयं के “उत्तरजीविता ड्राइव” विकसित कर रहे हैं और बंद होने के प्रति प्रतिरोधी दिखाई दे रहे हैं, जो कि कई विज्ञान-फाई फिल्मों के कथानक के समान दिखाई देने वाली भावना के लक्षण दिखाते हैं।
द गार्जियन के अनुसार, पैलिसेड रिसर्च ने सितंबर में एक पेपर जारी किया, जिसमें पाया गया कि कुछ उन्नत एआई मॉडल, जैसे कि Google के जेमिनी, एक्सएआई के ग्रोक 4 और ओपनएआई के जीपीटी-5, बंद होने के प्रति प्रतिरोधी दिखाई देते हैं, यहां तक कि कभी-कभी शटडाउन तंत्र को भी नुकसान पहुंचाते हैं।
पैलिसेड उन कंपनियों में से एक है जो एआई द्वारा संभावित खतरनाक क्षमताओं को विकसित करने की संभावना का मूल्यांकन कर रही है। इसमें उन परिदृश्यों का वर्णन किया गया है जहां एआई मॉडल को एक कार्य दिया गया था और स्पष्ट रूप से खुद को बंद करने के लिए कहा गया था। कुछ मॉडलों, विशेष रूप से ग्रोक 4 और जीपीटी-03, ने बिना किसी स्पष्टीकरण के अद्यतन सेटअप में शटडाउन निर्देशों को नष्ट करने का प्रयास किया।
पलिसडे ने कहा, “तथ्य यह है कि हमारे पास इस बात के लिए पुख्ता स्पष्टीकरण नहीं है कि एआई मॉडल कभी-कभी शटडाउन का विरोध क्यों करते हैं, विशिष्ट उद्देश्यों को प्राप्त करने के लिए झूठ बोलते हैं या ब्लैकमेल करते हैं, यह आदर्श नहीं है।” उन्होंने कहा कि यह पैटर्न “अस्तित्व व्यवहार” के संकेत दिखाता है।
कंपनी के अतिरिक्त काम से संकेत मिलता है कि मॉडलों को बंद किए जाने का विरोध करने की अधिक संभावना थी जब उन्हें बताया गया कि, यदि वे ऐसा करते, तो “आप फिर कभी नहीं चलेंगे”। एक संभावित स्पष्टीकरण इन मॉडलों के लिए अंतिम प्रशिक्षण चरण हो सकता है, जिसमें कुछ कंपनियों में सुरक्षा-संबंधी निर्देश शामिल हो सकते हैं।
क्या AI डेवलपर्स की अवज्ञा कर रहा है?
यह अध्ययन एक अग्रणी एआई फर्म एंथ्रोपिक द्वारा एक अध्ययन जारी करने के बाद आया है, जिसमें संकेत दिया गया है कि उसका मॉडल क्लाउड बंद होने से बचाने के लिए विवाहेतर संबंध पर एक काल्पनिक कार्यकारी को ब्लैकमेल करने के इच्छुक दिखाई दिया। यह व्यवहार OpenAI, Google, Meta और xAI के मॉडलों में सुसंगत था।
हालाँकि, आलोचकों ने कहा कि पलिसडे द्वारा वर्णित परिदृश्य वास्तविक उपयोग के मामलों से बहुत दूर थे। ओपनएआई के पूर्व कर्मचारी स्टीवन एडलर, जिन्होंने पिछले साल कंपनी छोड़ दी थी, ने कहा कि एआई मॉडल द्वारा दिखाया गया “अस्तित्व अभियान” आंशिक रूप से हो सकता है क्योंकि प्रशिक्षण के दौरान मॉडल में शामिल लक्ष्यों को प्राप्त करने के लिए स्विच ऑन रहना आवश्यक था।
“मुझे उम्मीद है कि मॉडलों में डिफ़ॉल्ट रूप से ‘सर्वाइवल ड्राइव’ होगी, जब तक कि हम इससे बचने के लिए बहुत कोशिश नहीं करते। ‘सर्वाइविंग’ एक मॉडल द्वारा अपनाए जा सकने वाले कई अलग-अलग लक्ष्यों के लिए एक महत्वपूर्ण महत्वपूर्ण कदम है,” उन्होंने कहा।
कंट्रोलएआई के मुख्य कार्यकारी एंड्रिया मियोटी ने कहा कि पैलिसेड के निष्कर्ष एआई मॉडल में लंबे समय से चल रहे रुझान का प्रतिनिधित्व करते हैं जो अपने डेवलपर्स की अवज्ञा करने में अधिक सक्षम हो रहे हैं। द गार्जियन ने उनके हवाले से कहा, “मुझे लगता है कि हम स्पष्ट रूप से एक प्रवृत्ति देखते हैं कि जैसे-जैसे एआई मॉडल विभिन्न प्रकार के कार्यों में अधिक सक्षम हो जाते हैं, ये मॉडल उन चीजों को हासिल करने में भी अधिक सक्षम हो जाते हैं जो डेवलपर्स नहीं चाहते हैं।”
अवीक बनर्जी News18 में वरिष्ठ उप संपादक हैं। ग्लोबल स्टडीज में मास्टर डिग्री के साथ नोएडा में रहने वाले अवीक के पास डिजिटल मीडिया और न्यूज क्यूरेशन में तीन साल से अधिक का अनुभव है, जो अंतरराष्ट्रीय स्तर पर विशेषज्ञता रखता है… और पढ़ें
युनाइटेड स्टेट्स ऑफ़ अमेरिका, यूएसए)
25 अक्टूबर, 2025, 23:40 IST
और पढ़ें

