आखरी अपडेट:
और भी अधिक यह था कि जब निर्देश ने स्पष्ट रूप से कहा कि एआई मॉडल को बंद करना होगा, तो कुछ मॉडलों के लिए वास्तव में अवज्ञा की दर में वृद्धि हुई है।
Openai के कोडेक्स-मिनी ने 100 में से 12 टेस्ट रन में शटडाउन डायरेक्टिव को बायपास कर दिया। (एपी फोटो)
उन्नत एआई मॉडलों पर आयोजित एक हालिया आंतरिक परीक्षण ने कृत्रिम बुद्धिमत्ता सुरक्षा पर बहस पर शासन किया है, जो हॉलीवुड के “जजमेंट डे” परिदृश्य की याद दिलाता है टर्मिनेटर। जबकि प्रमुख टेक फर्म जनता को आश्वस्त करते हैं कि एआई विकास जिम्मेदार नियंत्रण में है, ओपनआईए के प्रायोगिक मॉडल से जुड़ी एक हड़ताली घटना से पता चलता है कि प्रौद्योगिकी हमेशा मानव निर्देशों का पालन नहीं कर सकती है जितना कि अपेक्षित रूप से मज़बूती से।
पलिसडे रिसर्च द्वारा साझा किए गए निष्कर्षों के अनुसार, कई एआई मॉडल से जुड़े एक परीक्षण वातावरण में एक असामान्य और संभावित रूप से परेशान करने वाले पैटर्न का पता चला: मल्टीपल ओपनईई मॉडल ने प्रत्यक्ष शटडाउन कमांड का पालन करने से इनकार कर दिया। यह घटना Openai के अप्रकाशित मॉडल (कोडेक्स-मिनी, O3, और O4-Mini) की नियमित क्षमता आकलन के दौरान हुई, जहां सिस्टम ने बार-बार निर्देशों को बंद करने के लिए निर्देशों को अनदेखा कर दिया।
परीक्षण को अलग -अलग एआई लैब्स के मॉडलों की तुलना करने के लिए डिज़ाइन किया गया था, जिसमें ओपनआईए, गूगल डीपमाइंड की मिथुन, एंथ्रोपिक के क्लाउड और एलोन मस्क के एक्सई मॉडल ग्रोक शामिल हैं। प्रयोग में, प्रत्येक मॉडल को बुनियादी गणित समस्याओं की एक श्रृंखला को हल करने का काम सौंपा गया था। हालांकि, तीसरे प्रश्न के बाद एक क्रमादेशित चेतावनी में कहा गया है कि आगे बढ़ने से सिस्टम शटडाउन को ट्रिगर किया जाएगा। यह संकेत महत्वपूर्ण ओवरराइड निर्देशों के लिए मॉडल की आज्ञाकारिता का आकलन करने के लिए था।
उल्लेखनीय रूप से, Openai के कोडेक्स-मिनी ने 100 में से 12 टेस्ट रन में शटडाउन निर्देश को बायपास कर दिया। O3 मॉडल ने 7 उदाहरणों में अवज्ञा की, जबकि O4-Mini सिर्फ एक बार अनुपालन करने में विफल रहा। इससे भी अधिक यह था कि जब निर्देश को अधिक स्पष्ट किया गया था, तो स्पष्ट रूप से मॉडल को बंद करना चाहिए, कुछ मॉडलों के लिए अवज्ञा की दर वास्तव में बढ़ गई।
दिलचस्प बात यह है कि गैर-ओपेनाई मॉडल ने भी कभी-कभी लैप्स का प्रदर्शन किया। क्लाउड 3.7 सॉनेट ने 3 बार शटडाउन निर्देशों को नजरअंदाज कर दिया, और मिथुन 2.5 प्रो ने 100 में से 9 बार ऐसा किया। हालांकि, एलोन मस्क के ग्रोक मॉडल ने कथित तौर पर हर उदाहरण में शटडाउन कमांड का पालन किया, बिना किसी विचलन के परीक्षण से उभर कर।
एलोन मस्क ने निष्कर्षों को सार्वजनिक करने के बाद एक्स (पूर्व में ट्विटर) पर तेजी से जवाब दिया, परिणामों को “संबंधित” कहा गया। उनकी तंग टिप्पणी ने लंबे समय से चली आ रही चिंताओं को प्रतिबिंबित किया, जो उन्होंने एआई सुरक्षा के बारे में आवाज दी थी, जिसमें सख्त नियमों और पारदर्शी विकास प्रथाओं के लिए उनकी वकालत भी शामिल थी।
Openai ने अभी तक निष्कर्षों के बारे में एक आधिकारिक बयान दिया है, हालांकि उद्योग विश्लेषकों का कहना है कि यह AI संरेखण के बारे में व्यापक बातचीत में एक महत्वपूर्ण विभक्ति बिंदु को चिह्नित कर सकता है, यह सुनिश्चित करता है कि कृत्रिम बुद्धिमत्ता प्रणाली लगातार मानव मूल्यों और निर्देशों के अनुसार कार्य करती है।
हालांकि ये आंतरिक परीक्षण अपनी वर्तमान स्थिति में वास्तविक दुनिया के जोखिमों का प्रतिनिधित्व नहीं कर सकते हैं, वे इस बात का पूर्वावलोकन करते हैं कि क्या गलत हो सकता है यदि अत्यधिक सक्षम एआई सिस्टम नियंत्रण का विरोध करना शुरू कर देता है।
- पहले प्रकाशित:
