11.1 C
New Delhi
Friday, December 26, 2025

Subscribe

Latest Posts

Openai मॉडल की अवज्ञा बंद आदेशों, एलोन मस्क का कहना है कि …


आखरी अपडेट:

और भी अधिक यह था कि जब निर्देश ने स्पष्ट रूप से कहा कि एआई मॉडल को बंद करना होगा, तो कुछ मॉडलों के लिए वास्तव में अवज्ञा की दर में वृद्धि हुई है।

Openai के कोडेक्स-मिनी ने 100 में से 12 टेस्ट रन में शटडाउन डायरेक्टिव को बायपास कर दिया। (एपी फोटो)

उन्नत एआई मॉडलों पर आयोजित एक हालिया आंतरिक परीक्षण ने कृत्रिम बुद्धिमत्ता सुरक्षा पर बहस पर शासन किया है, जो हॉलीवुड के “जजमेंट डे” परिदृश्य की याद दिलाता है टर्मिनेटर। जबकि प्रमुख टेक फर्म जनता को आश्वस्त करते हैं कि एआई विकास जिम्मेदार नियंत्रण में है, ओपनआईए के प्रायोगिक मॉडल से जुड़ी एक हड़ताली घटना से पता चलता है कि प्रौद्योगिकी हमेशा मानव निर्देशों का पालन नहीं कर सकती है जितना कि अपेक्षित रूप से मज़बूती से।

पलिसडे रिसर्च द्वारा साझा किए गए निष्कर्षों के अनुसार, कई एआई मॉडल से जुड़े एक परीक्षण वातावरण में एक असामान्य और संभावित रूप से परेशान करने वाले पैटर्न का पता चला: मल्टीपल ओपनईई मॉडल ने प्रत्यक्ष शटडाउन कमांड का पालन करने से इनकार कर दिया। यह घटना Openai के अप्रकाशित मॉडल (कोडेक्स-मिनी, O3, और O4-Mini) की नियमित क्षमता आकलन के दौरान हुई, जहां सिस्टम ने बार-बार निर्देशों को बंद करने के लिए निर्देशों को अनदेखा कर दिया।

परीक्षण को अलग -अलग एआई लैब्स के मॉडलों की तुलना करने के लिए डिज़ाइन किया गया था, जिसमें ओपनआईए, गूगल डीपमाइंड की मिथुन, एंथ्रोपिक के क्लाउड और एलोन मस्क के एक्सई मॉडल ग्रोक शामिल हैं। प्रयोग में, प्रत्येक मॉडल को बुनियादी गणित समस्याओं की एक श्रृंखला को हल करने का काम सौंपा गया था। हालांकि, तीसरे प्रश्न के बाद एक क्रमादेशित चेतावनी में कहा गया है कि आगे बढ़ने से सिस्टम शटडाउन को ट्रिगर किया जाएगा। यह संकेत महत्वपूर्ण ओवरराइड निर्देशों के लिए मॉडल की आज्ञाकारिता का आकलन करने के लिए था।

उल्लेखनीय रूप से, Openai के कोडेक्स-मिनी ने 100 में से 12 टेस्ट रन में शटडाउन निर्देश को बायपास कर दिया। O3 मॉडल ने 7 उदाहरणों में अवज्ञा की, जबकि O4-Mini सिर्फ एक बार अनुपालन करने में विफल रहा। इससे भी अधिक यह था कि जब निर्देश को अधिक स्पष्ट किया गया था, तो स्पष्ट रूप से मॉडल को बंद करना चाहिए, कुछ मॉडलों के लिए अवज्ञा की दर वास्तव में बढ़ गई।

दिलचस्प बात यह है कि गैर-ओपेनाई मॉडल ने भी कभी-कभी लैप्स का प्रदर्शन किया। क्लाउड 3.7 सॉनेट ने 3 बार शटडाउन निर्देशों को नजरअंदाज कर दिया, और मिथुन 2.5 प्रो ने 100 में से 9 बार ऐसा किया। हालांकि, एलोन मस्क के ग्रोक मॉडल ने कथित तौर पर हर उदाहरण में शटडाउन कमांड का पालन किया, बिना किसी विचलन के परीक्षण से उभर कर।

एलोन मस्क ने निष्कर्षों को सार्वजनिक करने के बाद एक्स (पूर्व में ट्विटर) पर तेजी से जवाब दिया, परिणामों को “संबंधित” कहा गया। उनकी तंग टिप्पणी ने लंबे समय से चली आ रही चिंताओं को प्रतिबिंबित किया, जो उन्होंने एआई सुरक्षा के बारे में आवाज दी थी, जिसमें सख्त नियमों और पारदर्शी विकास प्रथाओं के लिए उनकी वकालत भी शामिल थी।

Openai ने अभी तक निष्कर्षों के बारे में एक आधिकारिक बयान दिया है, हालांकि उद्योग विश्लेषकों का कहना है कि यह AI संरेखण के बारे में व्यापक बातचीत में एक महत्वपूर्ण विभक्ति बिंदु को चिह्नित कर सकता है, यह सुनिश्चित करता है कि कृत्रिम बुद्धिमत्ता प्रणाली लगातार मानव मूल्यों और निर्देशों के अनुसार कार्य करती है।

हालांकि ये आंतरिक परीक्षण अपनी वर्तमान स्थिति में वास्तविक दुनिया के जोखिमों का प्रतिनिधित्व नहीं कर सकते हैं, वे इस बात का पूर्वावलोकन करते हैं कि क्या गलत हो सकता है यदि अत्यधिक सक्षम एआई सिस्टम नियंत्रण का विरोध करना शुरू कर देता है।

News18 टेक नवीनतम प्रौद्योगिकी अपडेट को वितरित करता है, जिसमें फोन लॉन्च, गैजेट समीक्षा, एआई प्रगति, और बहुत कुछ शामिल है। भारत और दुनिया भर से ब्रेकिंग टेक समाचार, विशेषज्ञ अंतर्दृष्टि और रुझानों को तोड़ने के साथ सूचित रहें। इसके अलावा डाउनलोड करें News18 ऐप अद्यतन रहने के लिए!
समाचार -पत्र Openai मॉडल की अवज्ञा बंद आदेशों, एलोन मस्क का कहना है कि …

Latest Posts

Subscribe

Don't Miss