आखरी अपडेट: 31 मई, 2023, 02:41 IST
वाशिंगटन डीसी, संयुक्त राज्य अमेरिका (यूएसए)
विशेषज्ञों का मानना है कि एआई बहुत जल्द इंसानों की बराबरी कर सकता है। (प्रतिनिधि छवि / रायटर)
OpenAI के सीईओ सैम ऑल्टमैन सहित शीर्ष कृत्रिम बुद्धिमत्ता (AI) के अधिकारी मंगलवार को “AI से विलुप्त होने के जोखिम” को बढ़ाने में विशेषज्ञों और प्रोफेसरों के साथ शामिल हुए, उन्होंने नीति निर्माताओं से महामारी और परमाणु युद्ध से उत्पन्न जोखिमों के बराबर होने का आग्रह किया।
गैर-लाभकारी सेंटर फॉर एआई सेफ्टी (सीएआईएस) द्वारा प्रकाशित एक पत्र में 350 से अधिक हस्ताक्षरकर्ताओं ने लिखा, “एआई से विलुप्त होने के जोखिम को कम करना महामारी और परमाणु युद्ध जैसे अन्य सामाजिक-स्तर के जोखिमों के साथ एक वैश्विक प्राथमिकता होनी चाहिए।”
Altman के साथ-साथ, उनमें AI फर्मों DeepMind और Anthropic के CEO और Microsoft और Google के अधिकारी शामिल थे।
उनमें जेफ्री हिंटन और योशुआ बेंगियो भी थे – तीन तथाकथित “एआई के गॉडफादर” में से दो, जिन्हें गहन शिक्षा पर उनके काम के लिए 2018 ट्यूरिंग अवार्ड मिला – और हार्वर्ड से लेकर चीन के सिंघुआ विश्वविद्यालय तक के संस्थानों के प्रोफेसर।
CAIS के एक बयान ने मेटा को अलग कर दिया, जहां एआई के तीसरे गॉडफादर, यान लेकन, पत्र पर हस्ताक्षर नहीं करने के लिए काम करते हैं।
सीएआईएस के निदेशक डेन हेंड्रिक्स ने कहा, “हमने कई मेटा कर्मचारियों को हस्ताक्षर करने के लिए कहा।” मेटा ने तुरंत टिप्पणी के अनुरोधों का जवाब नहीं दिया।
पत्र स्वीडन में यूएस-ईयू व्यापार और प्रौद्योगिकी परिषद की बैठक के साथ मेल खाता है जहां राजनेताओं से एआई को विनियमित करने के बारे में बात करने की उम्मीद है।
एलोन मस्क और एआई विशेषज्ञों और उद्योग के अधिकारियों का एक समूह अप्रैल में समाज के लिए संभावित जोखिमों का हवाला देने वाले पहले व्यक्ति थे।
हेंड्रिक्स ने कहा, “हमने (मस्क को) निमंत्रण दिया है और उम्मीद है कि वह इस सप्ताह इस पर हस्ताक्षर कर देंगे।”
एआई में हाल के विकास ने टूल समर्थकों का कहना है कि मेडिकल डायग्नोस्टिक्स से लेकर कानूनी संक्षेप लिखने तक के अनुप्रयोगों में इस्तेमाल किया जा सकता है, लेकिन इससे डर पैदा हो गया है कि तकनीक गोपनीयता के उल्लंघन, शक्ति गलत सूचना अभियानों और “स्मार्ट मशीनों” के लिए सोच के मुद्दों को जन्म दे सकती है। खुद।
यह चेतावनी गैर-लाभकारी फ्यूचर ऑफ लाइफ इंस्टीट्यूट (एफएलआई) द्वारा मस्क और सैकड़ों अन्य लोगों द्वारा हस्ताक्षरित एक समान खुला पत्र जारी करने के दो महीने बाद आई है, जिसमें मानवता के लिए जोखिम का हवाला देते हुए उन्नत एआई अनुसंधान में तत्काल रोक लगाने की मांग की गई है।
एफएलआई के अध्यक्ष मैक्स टेगमार्क ने कहा, “हमारा पत्र मुख्य विराम है, यह मुख्यधारा का विलोपन है।”
एआई अग्रणी हिंटन ने पहले रॉयटर्स को बताया था कि एआई जलवायु परिवर्तन की तुलना में मानवता के लिए “अधिक जरूरी” खतरा पैदा कर सकता है।
पिछले हफ्ते OpenAI के सीईओ सैम अल्टमैन ने EU AI का उल्लेख किया – AI के लिए एक नियमन बनाने का पहला प्रयास – अति-विनियमन के रूप में और यूरोप छोड़ने की धमकी दी। राजनेताओं की आलोचना के कुछ दिनों के भीतर उन्होंने अपना रुख उलट दिया।
चैटजीपीटी चैटबॉट के दुनिया भर में छा जाने के बाद ऑल्टमैन एआई का चेहरा बन गया है। यूरोपीय आयोग के अध्यक्ष उर्सुला वॉन डेर लेयेन गुरुवार को ऑल्टमैन से मिलेंगे, और यूरोपीय संघ के उद्योग प्रमुख थियरी ब्रेटन अगले महीने सैन फ्रांसिस्को में उनसे मुलाकात करेंगे।
(यह कहानी News18 के कर्मचारियों द्वारा संपादित नहीं की गई है और एक सिंडिकेटेड समाचार एजेंसी फीड से प्रकाशित हुई है – रॉयटर्स)
वक्फ संशोधन बिल आने के बाद से हिंदुओं में डर की भावना घर कर गई…
छवि स्रोत: गेट्टी शाई होप ने अपना 17वां वनडे शतक जड़ा और आगे बढ़कर नेतृत्व…
छवि स्रोत: एएनआई पूर्व शिष्य लाल शास्त्री के आदर्श भोपाल: मध्य प्रदेश की राजधानी भोपाल…
छवि स्रोत: इंस्टाग्राम शाहरुख खान उम्र सिर्फ एक नंबर है! अगर यह बात सच साबित…
आखरी अपडेट:02 नवंबर, 2024, 22:14 ISTअरमांडो सादिकु, ब्रिसन फर्नांडिस और डेजन ड्रेज़िक ने गॉस के…
छवि स्रोत: इंस्टाग्राम दीपिका दीपिका ने शेयर किया वीडियो दीपिका और रणवीर सिंह ने 8…