29.1 C
New Delhi
Thursday, July 4, 2024

Subscribe

Latest Posts

Google का DeepMind वीडियो के लिए साउंडट्रैक और संवाद बनाने के लिए V2A लेकर आया है: जानिए कैसे – News18 Hindi


आखरी अपडेट:

नया AI टूल उन्नत AI मॉडल का उपयोग करके वीडियो के लिए ऑडियो बना सकता है।

गूगल का डीपमाइंड प्रभाग एआई उपकरणों के नए सेट पर काम कर रहा है, जो वीओ और कंपनी के अन्य प्लेटफार्मों के साथ मिलकर काम कर सकते हैं।

Google DeepMind एक नए AI मॉडल पर काम कर रहा है जो वीडियो के लिए साउंडट्रैक और संवाद तैयार कर सकता है। हाल ही में एक ब्लॉग पोस्ट में, टेक दिग्गज की AI रिसर्च लैब ने V2A (वीडियो-टू-ऑडियो) का अनावरण किया, जो एक नया कार्य-प्रगतिशील AI मॉडल है जो “ऑन-स्क्रीन एक्शन के लिए समृद्ध साउंडस्केप बनाने के लिए वीडियो पिक्सल को प्राकृतिक भाषा टेक्स्ट संकेतों के साथ जोड़ता है।”

टेक्स्ट प्रॉम्प्ट से वीडियो बनाना रचनात्मक दुनिया में धूम मचा रहा है। हालाँकि, उपलब्ध अधिकांश उपकरणों में एक बड़ी खामी है और वे मूक वीडियो तक ही सीमित हैं।

गूगल डीपमाइंड के V2A को Veo के साथ सहजता से काम करने के लिए डिज़ाइन किया गया है, जो गूगल का टेक्स्ट-टू-वीडियो मॉडल है, जिसे पिछले महीने I/O 2024 में पेश किया गया था।

यह संयोजन उपयोगकर्ताओं को अपने वीडियो को न केवल दृश्य रूप से बल्कि श्रव्य रूप से भी बेहतर बनाने की अनुमति देता है। इंडियन एक्सप्रेस की रिपोर्ट के अनुसार, V2A मूक फिल्मों और अभिलेखीय सामग्री जैसे “पारंपरिक फुटेज” में भी जान फूंक सकता है।

इस AI मॉडल तकनीक का उद्देश्य उपयोगकर्ताओं द्वारा AI-जनरेटेड वीडियो बनाने और उसका अनुभव करने के तरीके को बदलना है। इसका उपयोग यथार्थवादी ध्वनि प्रभाव, नाटकीय संगीत और वीडियो के स्वर से मेल खाने वाले संवाद जोड़ने के लिए किया जा सकता है।

V2A मॉडल किसी भी वीडियो के लिए असीमित संख्या में साउंडट्रैक तैयार कर सकता है। उपयोगकर्ताओं को 'पॉजिटिव प्रॉम्प्ट' और 'नेगेटिव प्रॉम्प्ट' के साथ ऑडियो आउटपुट को बदलने का मौका भी मिलता है, जिसका उपयोग ध्वनि को सही करने और आउटपुट को अपनी पसंद के अनुसार ट्यून करने के लिए किया जा सकता है। इसके अलावा, उत्पन्न ऑडियो के हर हिस्से को सिंथआईडी तकनीक के साथ वॉटरमार्क किया जाता है ताकि यह सुनिश्चित किया जा सके कि यह मूल और प्रामाणिक है।

डीपमाइंड का V2A AI-संचालित वीडियो निर्माण में एक महत्वपूर्ण छलांग का प्रतिनिधित्व करता है। नई तकनीक इनपुट के रूप में ध्वनि का विवरण लेती है और एक महत्वपूर्ण अंतर को भरने के लिए संवाद प्रतिलेखों, ध्वनियों और वीडियो के मिश्रण पर प्रशिक्षित एक प्रसार मॉडल का उपयोग करती है, जिससे वीडियो अधिक इमर्सिव और आकर्षक बनते हैं। जबकि मॉडल शक्तिशाली है, V2A को अभी तक बड़ी संख्या में वीडियो पर प्रशिक्षित नहीं किया गया है और आउटपुट कई बार विकृत हो सकता है। इसलिए, किसी भी संभावित दुरुपयोग को रोकने के लिए, Google ने कहा कि वह जल्द ही V2A को जनता के लिए जारी नहीं करेगा।

Latest Posts

Subscribe

Don't Miss