आखरी अपडेट: 31 मई, 2023, 02:41 IST
वाशिंगटन डीसी, संयुक्त राज्य अमेरिका (यूएसए)
विशेषज्ञों का मानना है कि एआई बहुत जल्द इंसानों की बराबरी कर सकता है। (प्रतिनिधि छवि / रायटर)
OpenAI के सीईओ सैम ऑल्टमैन सहित शीर्ष कृत्रिम बुद्धिमत्ता (AI) के अधिकारी मंगलवार को “AI से विलुप्त होने के जोखिम” को बढ़ाने में विशेषज्ञों और प्रोफेसरों के साथ शामिल हुए, उन्होंने नीति निर्माताओं से महामारी और परमाणु युद्ध से उत्पन्न जोखिमों के बराबर होने का आग्रह किया।
गैर-लाभकारी सेंटर फॉर एआई सेफ्टी (सीएआईएस) द्वारा प्रकाशित एक पत्र में 350 से अधिक हस्ताक्षरकर्ताओं ने लिखा, “एआई से विलुप्त होने के जोखिम को कम करना महामारी और परमाणु युद्ध जैसे अन्य सामाजिक-स्तर के जोखिमों के साथ एक वैश्विक प्राथमिकता होनी चाहिए।”
Altman के साथ-साथ, उनमें AI फर्मों DeepMind और Anthropic के CEO और Microsoft और Google के अधिकारी शामिल थे।
उनमें जेफ्री हिंटन और योशुआ बेंगियो भी थे – तीन तथाकथित “एआई के गॉडफादर” में से दो, जिन्हें गहन शिक्षा पर उनके काम के लिए 2018 ट्यूरिंग अवार्ड मिला – और हार्वर्ड से लेकर चीन के सिंघुआ विश्वविद्यालय तक के संस्थानों के प्रोफेसर।
CAIS के एक बयान ने मेटा को अलग कर दिया, जहां एआई के तीसरे गॉडफादर, यान लेकन, पत्र पर हस्ताक्षर नहीं करने के लिए काम करते हैं।
सीएआईएस के निदेशक डेन हेंड्रिक्स ने कहा, “हमने कई मेटा कर्मचारियों को हस्ताक्षर करने के लिए कहा।” मेटा ने तुरंत टिप्पणी के अनुरोधों का जवाब नहीं दिया।
पत्र स्वीडन में यूएस-ईयू व्यापार और प्रौद्योगिकी परिषद की बैठक के साथ मेल खाता है जहां राजनेताओं से एआई को विनियमित करने के बारे में बात करने की उम्मीद है।
एलोन मस्क और एआई विशेषज्ञों और उद्योग के अधिकारियों का एक समूह अप्रैल में समाज के लिए संभावित जोखिमों का हवाला देने वाले पहले व्यक्ति थे।
हेंड्रिक्स ने कहा, “हमने (मस्क को) निमंत्रण दिया है और उम्मीद है कि वह इस सप्ताह इस पर हस्ताक्षर कर देंगे।”
एआई में हाल के विकास ने टूल समर्थकों का कहना है कि मेडिकल डायग्नोस्टिक्स से लेकर कानूनी संक्षेप लिखने तक के अनुप्रयोगों में इस्तेमाल किया जा सकता है, लेकिन इससे डर पैदा हो गया है कि तकनीक गोपनीयता के उल्लंघन, शक्ति गलत सूचना अभियानों और “स्मार्ट मशीनों” के लिए सोच के मुद्दों को जन्म दे सकती है। खुद।
यह चेतावनी गैर-लाभकारी फ्यूचर ऑफ लाइफ इंस्टीट्यूट (एफएलआई) द्वारा मस्क और सैकड़ों अन्य लोगों द्वारा हस्ताक्षरित एक समान खुला पत्र जारी करने के दो महीने बाद आई है, जिसमें मानवता के लिए जोखिम का हवाला देते हुए उन्नत एआई अनुसंधान में तत्काल रोक लगाने की मांग की गई है।
एफएलआई के अध्यक्ष मैक्स टेगमार्क ने कहा, “हमारा पत्र मुख्य विराम है, यह मुख्यधारा का विलोपन है।”
एआई अग्रणी हिंटन ने पहले रॉयटर्स को बताया था कि एआई जलवायु परिवर्तन की तुलना में मानवता के लिए “अधिक जरूरी” खतरा पैदा कर सकता है।
पिछले हफ्ते OpenAI के सीईओ सैम अल्टमैन ने EU AI का उल्लेख किया – AI के लिए एक नियमन बनाने का पहला प्रयास – अति-विनियमन के रूप में और यूरोप छोड़ने की धमकी दी। राजनेताओं की आलोचना के कुछ दिनों के भीतर उन्होंने अपना रुख उलट दिया।
चैटजीपीटी चैटबॉट के दुनिया भर में छा जाने के बाद ऑल्टमैन एआई का चेहरा बन गया है। यूरोपीय आयोग के अध्यक्ष उर्सुला वॉन डेर लेयेन गुरुवार को ऑल्टमैन से मिलेंगे, और यूरोपीय संघ के उद्योग प्रमुख थियरी ब्रेटन अगले महीने सैन फ्रांसिस्को में उनसे मुलाकात करेंगे।
(यह कहानी News18 के कर्मचारियों द्वारा संपादित नहीं की गई है और एक सिंडिकेटेड समाचार एजेंसी फीड से प्रकाशित हुई है – रॉयटर्स)
आखरी अपडेट:मार्च 02, 2026, 12:30 ISTटीसीएस, एलएंडटी और केआरबीएल जैसी भारतीय कंपनियों का मध्य पूर्व…
नई दिल्ली। दिल्ली की द्वारका पुलिस ने छत्तीसगढ़ भवन के 48 साल पुराने कैंटीन के…
छवि स्रोत: अजित कुमार एक्स अजित कुमार। मध्य पूर्व में इजराइल, अमेरिका और ईरान के…
आखरी अपडेट:मार्च 02, 2026, 11:40 ISTभारत में चंद्र ग्रहण 2026 की तारीख और समय: चंद्र…
जब टी20 विश्व कप में भारत की सबसे बड़ी पारियों की बात आती है, तो…
छवि स्रोत: POCO पोको एक्स 7 प्रो पोको: पोको की ओर से POCO X8 Pro…