आखरी अपडेट:
Openai के कोडेक्स-मिनी ने 100 में से 12 टेस्ट रन में शटडाउन डायरेक्टिव को बायपास कर दिया। (एपी फोटो)
उन्नत एआई मॉडलों पर आयोजित एक हालिया आंतरिक परीक्षण ने कृत्रिम बुद्धिमत्ता सुरक्षा पर बहस पर शासन किया है, जो हॉलीवुड के “जजमेंट डे” परिदृश्य की याद दिलाता है टर्मिनेटर। जबकि प्रमुख टेक फर्म जनता को आश्वस्त करते हैं कि एआई विकास जिम्मेदार नियंत्रण में है, ओपनआईए के प्रायोगिक मॉडल से जुड़ी एक हड़ताली घटना से पता चलता है कि प्रौद्योगिकी हमेशा मानव निर्देशों का पालन नहीं कर सकती है जितना कि अपेक्षित रूप से मज़बूती से।
पलिसडे रिसर्च द्वारा साझा किए गए निष्कर्षों के अनुसार, कई एआई मॉडल से जुड़े एक परीक्षण वातावरण में एक असामान्य और संभावित रूप से परेशान करने वाले पैटर्न का पता चला: मल्टीपल ओपनईई मॉडल ने प्रत्यक्ष शटडाउन कमांड का पालन करने से इनकार कर दिया। यह घटना Openai के अप्रकाशित मॉडल (कोडेक्स-मिनी, O3, और O4-Mini) की नियमित क्षमता आकलन के दौरान हुई, जहां सिस्टम ने बार-बार निर्देशों को बंद करने के लिए निर्देशों को अनदेखा कर दिया।
परीक्षण को अलग -अलग एआई लैब्स के मॉडलों की तुलना करने के लिए डिज़ाइन किया गया था, जिसमें ओपनआईए, गूगल डीपमाइंड की मिथुन, एंथ्रोपिक के क्लाउड और एलोन मस्क के एक्सई मॉडल ग्रोक शामिल हैं। प्रयोग में, प्रत्येक मॉडल को बुनियादी गणित समस्याओं की एक श्रृंखला को हल करने का काम सौंपा गया था। हालांकि, तीसरे प्रश्न के बाद एक क्रमादेशित चेतावनी में कहा गया है कि आगे बढ़ने से सिस्टम शटडाउन को ट्रिगर किया जाएगा। यह संकेत महत्वपूर्ण ओवरराइड निर्देशों के लिए मॉडल की आज्ञाकारिता का आकलन करने के लिए था।
उल्लेखनीय रूप से, Openai के कोडेक्स-मिनी ने 100 में से 12 टेस्ट रन में शटडाउन निर्देश को बायपास कर दिया। O3 मॉडल ने 7 उदाहरणों में अवज्ञा की, जबकि O4-Mini सिर्फ एक बार अनुपालन करने में विफल रहा। इससे भी अधिक यह था कि जब निर्देश को अधिक स्पष्ट किया गया था, तो स्पष्ट रूप से मॉडल को बंद करना चाहिए, कुछ मॉडलों के लिए अवज्ञा की दर वास्तव में बढ़ गई।
दिलचस्प बात यह है कि गैर-ओपेनाई मॉडल ने भी कभी-कभी लैप्स का प्रदर्शन किया। क्लाउड 3.7 सॉनेट ने 3 बार शटडाउन निर्देशों को नजरअंदाज कर दिया, और मिथुन 2.5 प्रो ने 100 में से 9 बार ऐसा किया। हालांकि, एलोन मस्क के ग्रोक मॉडल ने कथित तौर पर हर उदाहरण में शटडाउन कमांड का पालन किया, बिना किसी विचलन के परीक्षण से उभर कर।
एलोन मस्क ने निष्कर्षों को सार्वजनिक करने के बाद एक्स (पूर्व में ट्विटर) पर तेजी से जवाब दिया, परिणामों को “संबंधित” कहा गया। उनकी तंग टिप्पणी ने लंबे समय से चली आ रही चिंताओं को प्रतिबिंबित किया, जो उन्होंने एआई सुरक्षा के बारे में आवाज दी थी, जिसमें सख्त नियमों और पारदर्शी विकास प्रथाओं के लिए उनकी वकालत भी शामिल थी।
Openai ने अभी तक निष्कर्षों के बारे में एक आधिकारिक बयान दिया है, हालांकि उद्योग विश्लेषकों का कहना है कि यह AI संरेखण के बारे में व्यापक बातचीत में एक महत्वपूर्ण विभक्ति बिंदु को चिह्नित कर सकता है, यह सुनिश्चित करता है कि कृत्रिम बुद्धिमत्ता प्रणाली लगातार मानव मूल्यों और निर्देशों के अनुसार कार्य करती है।
हालांकि ये आंतरिक परीक्षण अपनी वर्तमान स्थिति में वास्तविक दुनिया के जोखिमों का प्रतिनिधित्व नहीं कर सकते हैं, वे इस बात का पूर्वावलोकन करते हैं कि क्या गलत हो सकता है यदि अत्यधिक सक्षम एआई सिस्टम नियंत्रण का विरोध करना शुरू कर देता है।
2003 में, मैंने फ्रेंच पढ़ाना शुरू किया। कुछ साल बाद, मुझे उन दो बच्चों के…
पिछले कुछ दिनों में तापमान बढ़ने के साथ, ज़वेरी बाज़ार की छोटी खिड़की रहित कार्यशालाओं…
मुंबई: बार-बार डकार आने से परेशान होकर ठाणे निवासी 70 वर्षीय हिरेन बोस ने स्वास्थ्य…
इस सीज़न के इंडियन प्रीमियर लीग में सबसे कमजोर हमलों में से एक के रूप…
नई दिल्ली: तेज गेंदबाजों ने कुछ लुभावने स्पैल का प्रदर्शन किया क्योंकि सनराइजर्स हैदराबाद ने…
दिग्गज पत्रकार और लेखक एस हुसैन जैदी ने मुंबई में अपनी नई किताब 'माफिया क्वीन्स…