20.1 C
New Delhi
Monday, November 25, 2024

Subscribe

Latest Posts

क्या AI सिस्टम GPT-4 से अधिक शक्तिशाली हैं जो समाज और मानवता के लिए एक संभावित खतरा हैं? एलोन मस्क, विशेषज्ञ तुरंत इसका आग्रह करते हैं


नयी दिल्ली: एलोन मस्क और कृत्रिम बुद्धिमत्ता विशेषज्ञों और उद्योग के अधिकारियों का एक समूह OpenAI के नए लॉन्च किए गए मॉडल GPT-4 की तुलना में अधिक शक्तिशाली प्रशिक्षण प्रणालियों में छह महीने के ठहराव का आह्वान कर रहा है, उन्होंने समाज और मानवता के लिए संभावित जोखिमों का हवाला देते हुए एक खुले पत्र में कहा। पत्र, गैर-लाभकारी फ्यूचर ऑफ लाइफ इंस्टीट्यूट द्वारा जारी किया गया और मस्क, स्टेबिलिटी एआई के सीईओ इमाद मोस्टाक, अल्फाबेट के स्वामित्व वाले डीपमाइंड के शोधकर्ताओं के साथ-साथ एआई हैवीवेट योशुआ बेंगियो और स्टुअर्ट रसेल सहित 1,000 से अधिक लोगों द्वारा हस्ताक्षरित, एक के लिए बुलाया गया स्वतंत्र विशेषज्ञों द्वारा ऐसे डिजाइनों के लिए साझा सुरक्षा प्रोटोकॉल विकसित, कार्यान्वित और ऑडिट किए जाने तक उन्नत AI विकास पर विराम।

पत्र में कहा गया है, “शक्तिशाली एआई सिस्टम केवल तभी विकसित किए जाने चाहिए जब हमें भरोसा हो कि उनका प्रभाव सकारात्मक होगा और उनके जोखिम प्रबंधनीय होंगे।”

पत्र ने आर्थिक और राजनीतिक व्यवधानों के रूप में मानव-प्रतिस्पर्धी एआई सिस्टम द्वारा समाज और सभ्यता के लिए संभावित जोखिमों को भी विस्तृत किया, और विकासकर्ताओं को शासन और नियामक प्राधिकरणों पर नीति निर्माताओं के साथ काम करने का आह्वान किया। पत्र के रूप में यूरोपीय संघ पुलिस बल यूरोपोल सोमवार को चैटजीपीटी जैसे उन्नत एआई पर नैतिक और कानूनी चिंताओं में शामिल हो गया, जो फ़िशिंग प्रयासों, विघटन और साइबर अपराध में सिस्टम के संभावित दुरुपयोग के बारे में चेतावनी देता है। कस्तूरी, जिसका कार निर्माता टेस्ला (TSLA.O) एक ऑटोपायलट सिस्टम के लिए एआई का उपयोग कर रहा है, एआई के बारे में अपनी चिंताओं के बारे में मुखर रहा है।

पिछले साल अपनी रिलीज़ के बाद से, Microsoft समर्थित OpenAI के ChatGPT ने प्रतिद्वंद्वियों को समान बड़े भाषा मॉडल विकसित करने में तेजी लाने के लिए प्रेरित किया है, और कंपनियों ने अपने उत्पादों में जनरेटिव AI मॉडल को एकीकृत करने के लिए प्रेरित किया है। फ्यूचर ऑफ लाइफ के एक प्रवक्ता ने रॉयटर्स को बताया कि OpenAI के मुख्य कार्यकारी अधिकारी सैम ऑल्टमैन ने पत्र पर हस्ताक्षर नहीं किए हैं। OpenAI ने टिप्पणी के अनुरोध का तुरंत जवाब नहीं दिया।

“पत्र सही नहीं है, लेकिन भावना सही है: जब तक हम प्रभाव को बेहतर ढंग से नहीं समझ लेते, तब तक हमें धीमा रहने की जरूरत है,” गैरी मार्कस, न्यूयॉर्क विश्वविद्यालय के एक एमेरिटस प्रोफेसर ने कहा, जिन्होंने पत्र पर हस्ताक्षर किए। “वे गंभीर नुकसान पहुंचा सकते हैं … बड़े खिलाड़ी तेजी से गुप्त होते जा रहे हैं कि वे क्या कर रहे हैं, जिससे समाज के लिए किसी भी नुकसान से बचाव करना कठिन हो जाता है।”



Latest Posts

Subscribe

Don't Miss