आखरी अपडेट: 31 मई, 2023, 02:41 IST
वाशिंगटन डीसी, संयुक्त राज्य अमेरिका (यूएसए)
विशेषज्ञों का मानना है कि एआई बहुत जल्द इंसानों की बराबरी कर सकता है। (प्रतिनिधि छवि / रायटर)
OpenAI के सीईओ सैम ऑल्टमैन सहित शीर्ष कृत्रिम बुद्धिमत्ता (AI) के अधिकारी मंगलवार को “AI से विलुप्त होने के जोखिम” को बढ़ाने में विशेषज्ञों और प्रोफेसरों के साथ शामिल हुए, उन्होंने नीति निर्माताओं से महामारी और परमाणु युद्ध से उत्पन्न जोखिमों के बराबर होने का आग्रह किया।
गैर-लाभकारी सेंटर फॉर एआई सेफ्टी (सीएआईएस) द्वारा प्रकाशित एक पत्र में 350 से अधिक हस्ताक्षरकर्ताओं ने लिखा, “एआई से विलुप्त होने के जोखिम को कम करना महामारी और परमाणु युद्ध जैसे अन्य सामाजिक-स्तर के जोखिमों के साथ एक वैश्विक प्राथमिकता होनी चाहिए।”
Altman के साथ-साथ, उनमें AI फर्मों DeepMind और Anthropic के CEO और Microsoft और Google के अधिकारी शामिल थे।
उनमें जेफ्री हिंटन और योशुआ बेंगियो भी थे – तीन तथाकथित “एआई के गॉडफादर” में से दो, जिन्हें गहन शिक्षा पर उनके काम के लिए 2018 ट्यूरिंग अवार्ड मिला – और हार्वर्ड से लेकर चीन के सिंघुआ विश्वविद्यालय तक के संस्थानों के प्रोफेसर।
CAIS के एक बयान ने मेटा को अलग कर दिया, जहां एआई के तीसरे गॉडफादर, यान लेकन, पत्र पर हस्ताक्षर नहीं करने के लिए काम करते हैं।
सीएआईएस के निदेशक डेन हेंड्रिक्स ने कहा, “हमने कई मेटा कर्मचारियों को हस्ताक्षर करने के लिए कहा।” मेटा ने तुरंत टिप्पणी के अनुरोधों का जवाब नहीं दिया।
पत्र स्वीडन में यूएस-ईयू व्यापार और प्रौद्योगिकी परिषद की बैठक के साथ मेल खाता है जहां राजनेताओं से एआई को विनियमित करने के बारे में बात करने की उम्मीद है।
एलोन मस्क और एआई विशेषज्ञों और उद्योग के अधिकारियों का एक समूह अप्रैल में समाज के लिए संभावित जोखिमों का हवाला देने वाले पहले व्यक्ति थे।
हेंड्रिक्स ने कहा, “हमने (मस्क को) निमंत्रण दिया है और उम्मीद है कि वह इस सप्ताह इस पर हस्ताक्षर कर देंगे।”
एआई में हाल के विकास ने टूल समर्थकों का कहना है कि मेडिकल डायग्नोस्टिक्स से लेकर कानूनी संक्षेप लिखने तक के अनुप्रयोगों में इस्तेमाल किया जा सकता है, लेकिन इससे डर पैदा हो गया है कि तकनीक गोपनीयता के उल्लंघन, शक्ति गलत सूचना अभियानों और “स्मार्ट मशीनों” के लिए सोच के मुद्दों को जन्म दे सकती है। खुद।
यह चेतावनी गैर-लाभकारी फ्यूचर ऑफ लाइफ इंस्टीट्यूट (एफएलआई) द्वारा मस्क और सैकड़ों अन्य लोगों द्वारा हस्ताक्षरित एक समान खुला पत्र जारी करने के दो महीने बाद आई है, जिसमें मानवता के लिए जोखिम का हवाला देते हुए उन्नत एआई अनुसंधान में तत्काल रोक लगाने की मांग की गई है।
एफएलआई के अध्यक्ष मैक्स टेगमार्क ने कहा, “हमारा पत्र मुख्य विराम है, यह मुख्यधारा का विलोपन है।”
एआई अग्रणी हिंटन ने पहले रॉयटर्स को बताया था कि एआई जलवायु परिवर्तन की तुलना में मानवता के लिए “अधिक जरूरी” खतरा पैदा कर सकता है।
पिछले हफ्ते OpenAI के सीईओ सैम अल्टमैन ने EU AI का उल्लेख किया – AI के लिए एक नियमन बनाने का पहला प्रयास – अति-विनियमन के रूप में और यूरोप छोड़ने की धमकी दी। राजनेताओं की आलोचना के कुछ दिनों के भीतर उन्होंने अपना रुख उलट दिया।
चैटजीपीटी चैटबॉट के दुनिया भर में छा जाने के बाद ऑल्टमैन एआई का चेहरा बन गया है। यूरोपीय आयोग के अध्यक्ष उर्सुला वॉन डेर लेयेन गुरुवार को ऑल्टमैन से मिलेंगे, और यूरोपीय संघ के उद्योग प्रमुख थियरी ब्रेटन अगले महीने सैन फ्रांसिस्को में उनसे मुलाकात करेंगे।
(यह कहानी News18 के कर्मचारियों द्वारा संपादित नहीं की गई है और एक सिंडिकेटेड समाचार एजेंसी फीड से प्रकाशित हुई है – रॉयटर्स)
छवि स्रोत: एपी 2023 में करीब 51,100 महिलाओं और लड़कियों को अपनी जान से हाथ…
महाराष्ट्र सरकार गठन: तीन दिन हो गए हैं और महाराष्ट्र में प्रचंड बहुमत दर्ज करने…
आखरी अपडेट:26 नवंबर, 2024, 07:00 ISTकांग्रेस नेता राहुल गांधी द्वारा की गई कौन सी गलतियाँ…
छवि स्रोत: इंस्टाग्राम अर्जुन पाम का जन्मदिन बॉलीवुड के मशहूर अभिनेता और विलेन अर्जुन 26…
छवि स्रोत: बीसीसीआई/आईपीएल चेन्नई सुपर किंग्स ने आईपीएल मेगा नीलामी 2025 में 6 पूर्व खिलाड़ियों…
आखरी अपडेट:26 नवंबर, 2024, 00:42 ISTएनटीपीसी ग्रीन एनर्जी जीएमपी: एनटीपीसी ग्रीन एनर्जी लिमिटेड के असूचीबद्ध…