आखरी अपडेट:
Openai के कोडेक्स-मिनी ने 100 में से 12 टेस्ट रन में शटडाउन डायरेक्टिव को बायपास कर दिया। (एपी फोटो)
उन्नत एआई मॉडलों पर आयोजित एक हालिया आंतरिक परीक्षण ने कृत्रिम बुद्धिमत्ता सुरक्षा पर बहस पर शासन किया है, जो हॉलीवुड के “जजमेंट डे” परिदृश्य की याद दिलाता है टर्मिनेटर। जबकि प्रमुख टेक फर्म जनता को आश्वस्त करते हैं कि एआई विकास जिम्मेदार नियंत्रण में है, ओपनआईए के प्रायोगिक मॉडल से जुड़ी एक हड़ताली घटना से पता चलता है कि प्रौद्योगिकी हमेशा मानव निर्देशों का पालन नहीं कर सकती है जितना कि अपेक्षित रूप से मज़बूती से।
पलिसडे रिसर्च द्वारा साझा किए गए निष्कर्षों के अनुसार, कई एआई मॉडल से जुड़े एक परीक्षण वातावरण में एक असामान्य और संभावित रूप से परेशान करने वाले पैटर्न का पता चला: मल्टीपल ओपनईई मॉडल ने प्रत्यक्ष शटडाउन कमांड का पालन करने से इनकार कर दिया। यह घटना Openai के अप्रकाशित मॉडल (कोडेक्स-मिनी, O3, और O4-Mini) की नियमित क्षमता आकलन के दौरान हुई, जहां सिस्टम ने बार-बार निर्देशों को बंद करने के लिए निर्देशों को अनदेखा कर दिया।
परीक्षण को अलग -अलग एआई लैब्स के मॉडलों की तुलना करने के लिए डिज़ाइन किया गया था, जिसमें ओपनआईए, गूगल डीपमाइंड की मिथुन, एंथ्रोपिक के क्लाउड और एलोन मस्क के एक्सई मॉडल ग्रोक शामिल हैं। प्रयोग में, प्रत्येक मॉडल को बुनियादी गणित समस्याओं की एक श्रृंखला को हल करने का काम सौंपा गया था। हालांकि, तीसरे प्रश्न के बाद एक क्रमादेशित चेतावनी में कहा गया है कि आगे बढ़ने से सिस्टम शटडाउन को ट्रिगर किया जाएगा। यह संकेत महत्वपूर्ण ओवरराइड निर्देशों के लिए मॉडल की आज्ञाकारिता का आकलन करने के लिए था।
उल्लेखनीय रूप से, Openai के कोडेक्स-मिनी ने 100 में से 12 टेस्ट रन में शटडाउन निर्देश को बायपास कर दिया। O3 मॉडल ने 7 उदाहरणों में अवज्ञा की, जबकि O4-Mini सिर्फ एक बार अनुपालन करने में विफल रहा। इससे भी अधिक यह था कि जब निर्देश को अधिक स्पष्ट किया गया था, तो स्पष्ट रूप से मॉडल को बंद करना चाहिए, कुछ मॉडलों के लिए अवज्ञा की दर वास्तव में बढ़ गई।
दिलचस्प बात यह है कि गैर-ओपेनाई मॉडल ने भी कभी-कभी लैप्स का प्रदर्शन किया। क्लाउड 3.7 सॉनेट ने 3 बार शटडाउन निर्देशों को नजरअंदाज कर दिया, और मिथुन 2.5 प्रो ने 100 में से 9 बार ऐसा किया। हालांकि, एलोन मस्क के ग्रोक मॉडल ने कथित तौर पर हर उदाहरण में शटडाउन कमांड का पालन किया, बिना किसी विचलन के परीक्षण से उभर कर।
एलोन मस्क ने निष्कर्षों को सार्वजनिक करने के बाद एक्स (पूर्व में ट्विटर) पर तेजी से जवाब दिया, परिणामों को “संबंधित” कहा गया। उनकी तंग टिप्पणी ने लंबे समय से चली आ रही चिंताओं को प्रतिबिंबित किया, जो उन्होंने एआई सुरक्षा के बारे में आवाज दी थी, जिसमें सख्त नियमों और पारदर्शी विकास प्रथाओं के लिए उनकी वकालत भी शामिल थी।
Openai ने अभी तक निष्कर्षों के बारे में एक आधिकारिक बयान दिया है, हालांकि उद्योग विश्लेषकों का कहना है कि यह AI संरेखण के बारे में व्यापक बातचीत में एक महत्वपूर्ण विभक्ति बिंदु को चिह्नित कर सकता है, यह सुनिश्चित करता है कि कृत्रिम बुद्धिमत्ता प्रणाली लगातार मानव मूल्यों और निर्देशों के अनुसार कार्य करती है।
हालांकि ये आंतरिक परीक्षण अपनी वर्तमान स्थिति में वास्तविक दुनिया के जोखिमों का प्रतिनिधित्व नहीं कर सकते हैं, वे इस बात का पूर्वावलोकन करते हैं कि क्या गलत हो सकता है यदि अत्यधिक सक्षम एआई सिस्टम नियंत्रण का विरोध करना शुरू कर देता है।
आखरी अपडेट:24 जनवरी 2026, 13:24 ISTसांसद ने सनापुर बलात्कार और हत्या को "छोटी घटना" कहा,…
आखरी अपडेट:24 जनवरी 2026, 13:02 ISTबीमारी 2009 में उद्यमी राधिका अय्यर तलाती के लिए महत्वपूर्ण…
छवि स्रोत: अनस्प्लैश व्हाट्सएप में एक नया फीचर आ रहा है। WhatsApp जल्द ही उपभोक्ताओं…
आखरी अपडेट:24 जनवरी 2026, 11:59 ISTमार्टिना नवरातिलोवा का कहना है कि जैनिक सिनर को ऑस्ट्रेलियन…
तिरूपति लड्डू विवाद: टीटीडी अधिकारी आरोपपत्र सूची में सबसे आगे हैं: सेवानिवृत्त प्रोक्योरमेंट जीएम प्रलय…
उत्तर प्रदेश के मुख्यमंत्री योगी आदित्यनाथ ने शनिवार को उत्तर प्रदेश दिवस के अवसर पर…