16.1 C
New Delhi
Monday, November 18, 2024

Subscribe

Latest Posts

मेटा शोधकर्ताओं के लिए खुद के बड़े भाषा मॉडल के साथ एआई चैटबॉट रेस में शामिल हुआ


नयी दिल्ली: Microsoft ChatGPT और Google के बार्ड के बाद, मेटा AI चैटबॉट की दौड़ में शामिल हो रहा है, जो अपने अत्याधुनिक मूलभूत बड़े भाषा मॉडल के साथ शोधकर्ताओं को कृत्रिम बुद्धिमत्ता के क्षेत्र में अपने काम को आगे बढ़ाने में मदद करने के लिए डिज़ाइन किया गया है। हालाँकि, मेटा का लार्ज लैंग्वेज मॉडल मेटा AI (LLaMA) फिलहाल चैटजीपीटी-संचालित बिंग की तरह नहीं है क्योंकि यह अभी तक मनुष्यों से बात नहीं कर सकता है लेकिन शोधकर्ताओं की मदद करेगा।

मेटा ने एक बयान में कहा, “एलएलएएमए जैसे छोटे, अधिक प्रदर्शन करने वाले मॉडल अनुसंधान समुदाय में दूसरों को सक्षम करते हैं, जिनके पास इन मॉडलों का अध्ययन करने के लिए बड़ी मात्रा में बुनियादी ढांचे तक पहुंच नहीं है, जो इस महत्वपूर्ण, तेजी से बदलते क्षेत्र में पहुंच को और अधिक लोकतांत्रिक बनाता है।” (यह भी पढ़ें: “प्रिय SBI उपयोगकर्ता…:” क्या आपको भी मिल रहा है यह एसएमएस? SBI फेक मैसेज स्कैम के बारे में सच्चाई की जांच करें)

मेटा LLaMA को कई आकारों (7 बिलियन, 13 बिलियन, 33 बिलियन और 65 बिलियन पैरामीटर्स) पर उपलब्ध करा रहा है। बड़े भाषा मॉडल – अरबों मापदंडों के साथ प्राकृतिक भाषा प्रसंस्करण (एनएलपी) सिस्टम – ने रचनात्मक पाठ उत्पन्न करने, गणितीय प्रमेयों को हल करने, प्रोटीन संरचनाओं की भविष्यवाणी करने, पढ़ने की समझ के सवालों का जवाब देने और बहुत कुछ करने के लिए नई क्षमताएं दिखाई हैं। (यह भी पढ़ें: SBI से BoB तक: यहां 5 सरकारी बैंक FD की तुलना की गई है – वरिष्ठ नागरिकों के लिए नवीनतम फिक्स्ड डिपॉजिट दरें देखें)

मेटा ने कहा, “वे अरबों लोगों को बड़े पैमाने पर एआई द्वारा पेश किए जा सकने वाले पर्याप्त संभावित लाभों के स्पष्ट मामलों में से एक हैं।” अधिक टोकन पर प्रशिक्षित छोटे मॉडल- शब्दों के टुकड़े- विशिष्ट संभावित उत्पाद उपयोग मामलों के लिए पुन: प्रशिक्षित और ठीक-ठाक करना आसान है।

मेटा ने 1.4 ट्रिलियन टोकन पर LLaMA 65 बिलियन और LLaMA 33 बिलियन को प्रशिक्षित किया है। “हमारा सबसे छोटा मॉडल, LLaMA 7B, एक ट्रिलियन टोकन पर प्रशिक्षित है,” कंपनी ने कहा। अन्य बड़े भाषा मॉडल की तरह, LLaMA शब्दों के अनुक्रम को इनपुट के रूप में लेकर काम करता है और पाठ को पुनरावर्ती रूप से उत्पन्न करने के लिए अगले शब्द की भविष्यवाणी करता है।

मेटा ने बताया, “अपने मॉडल को प्रशिक्षित करने के लिए, हमने लैटिन और सिरिलिक वर्णमाला वाले लोगों पर ध्यान केंद्रित करते हुए, सबसे अधिक वक्ताओं वाली 20 भाषाओं में से एक टेक्स्ट को चुना।” अखंडता बनाए रखने और दुरुपयोग को रोकने के लिए, कंपनी ने कहा कि वह इस समय अनुसंधान उपयोग के मामलों पर केंद्रित एक गैर-वाणिज्यिक लाइसेंस के तहत मॉडल जारी कर रही है।



Latest Posts

Subscribe

Don't Miss