34.1 C
New Delhi
Friday, April 24, 2026

Subscribe

Latest Posts

एआई क्लोनिंग का खतरा: गूगल का कहना है कि हैकर्स एक दुष्ट जेमिनी एआई चैटबॉट बनाने की कोशिश कर रहे हैं


आखरी अपडेट:

एआई क्लोन कंपनियों के लिए एक गंभीर खतरा बन जाएंगे और ये हमले कैसे किए जाते हैं, इसके बारे में Google ने चिंताजनक विवरण साझा किया है।

Google पीड़ितों पर हमला करने के लिए AI मॉडल की क्लोनिंग करने वाले हैकरों के बारे में चेतावनी दे रहा है। (फोटो: एआई जनित)

Google पीड़ितों पर हमला करने के लिए AI मॉडल की क्लोनिंग करने वाले हैकरों के बारे में चेतावनी दे रहा है। (फोटो: एआई जनित)

Google और अन्य तकनीकी कंपनियों के पास AI के उदय के बारे में चिंतित होने के और भी कारण हैं और यह केवल कोडर को बदलने या आपकी नौकरियां छीनने के बारे में नहीं है। Google ने एक विस्तृत रिपोर्ट पेश की है जिसमें कहा गया है कि कुछ हमलावरों ने जेमिनी को एआई मॉडल का क्लोन संस्करण बनाने के लिए प्रेरित करने की कोशिश की, जो अगले कुछ वर्षों में एआई क्षेत्र के संचालन पर व्यापक प्रभाव डाल सकता है।

कंपनी इसे “आसवन हमले” कह रही है, जिसे एआई चैटबॉट को अपने मॉडल के बारे में गोपनीय विवरण साझा करने और पृष्ठभूमि में यह कैसे काम करता है, को साझा करने के लिए डिज़ाइन किया गया है।

हमने एआई के विभिन्न रूपों के ख़राब होने के बारे में सुना है, जिसमें नियमित रूप से दिखने वाले संकेतों को दुर्भावनापूर्ण कोड के साथ इंजेक्ट करने की क्षमता भी शामिल है, जिसका उपयोग डेटा चोरी करने के लिए किया जा सकता है। लेकिन हैकर्स द्वारा एआई को तोड़कर क्लोन बनाने में सक्षम होने का जोखिम, यह खतरे का एक और स्तर है।

प्रॉम्प्ट से एआई क्लोन: Google ने क्या कहा है

Google का कहना है कि हमलावर “मॉडल एक्सट्रैक्शन” के साथ जेमिनी का क्लोन बनाने की कोशिश कर रहे हैं और यह एआई चैटबॉट (किसी को भी) को 100,000 प्रॉम्प्ट खिलाकर और इसे बेहतर विवरण प्रकट करने के लिए आसानी से किया जाता है जो इसे टिक कर देता है। कंपनी ने चेतावनी दी कि सभी डेटा का उपयोग मौजूदा/प्रतिस्पर्धी एआई मॉडल को बनाने या बढ़ाने के लिए किया जा सकता है।

Google ने पहले भी ये आरोप लगाए हैं, लेकिन नई रिपोर्ट में साझा किए गए विवरण से पता चलता है कि ये हमले निजी कंपनियों (इसके प्रतिद्वंद्वियों) या यहां तक ​​​​कि शोधकर्ताओं द्वारा किए गए हैं, जो इन्हें रोकने के लिए आवश्यक प्रभाव और शक्ति के स्तर के साथ संभव नहीं लगता है।

दुष्ट एआई हर जगह

Google ने जो साझा किया है वह उन कंपनियों के लिए चिंताजनक होना चाहिए जो AI व्यवसाय में हैं लेकिन उनके पास Google के समान संसाधन या जनशक्ति नहीं है जो न केवल उन्हें ऐसे हमलों का पता लगाने में मदद कर सके बल्कि उन्हें रोक भी सके।

कल्पना कीजिए कि अगर हैकर्स छोटी कंपनियों के एआई टूल्स की क्लोनिंग में इन तरकीबों का इस्तेमाल करने में सफल हो जाते हैं, तो पूरा उद्योग इस बात पर लगाम लगाने के लिए संघर्ष करेगा कि तकनीक कैसे विकसित होती है, और अगर ऐसा होता भी है, तो उनकी निगरानी से इसे चुराया जा सकता है। एआई मॉडल के विचारों और विचार प्रक्रिया को चुराने से व्यवसायों पर बड़े पैमाने पर असर पड़ सकता है, जो पहले से ही उन्हें चालू रखने और विकसित करने के लिए अरबों खर्च कर रहे हैं।

बचना मुश्किल

नियमित उपयोगकर्ताओं के लिए, जो एआई मॉडल को शक्तिशाली बनाने का वास्तविक स्रोत हैं, उन्हें मूल और नकली एआई मॉडल के बीच अंतर करने में कठिनाई होगी।

डेटा स्क्रैपिंग ऐसे स्तर पर हो सकती है जहां आपकी सारी जानकारी सिस्टम में फीड हो जाती है जिससे आपको विश्वास हो जाता है कि दुष्ट एआई संस्करण वास्तव में मुख्य एआई है जिसका आप इतने समय से उपयोग कर रहे हैं। मिथुन संभवतः इन क्लोनिंग हमलों का सामना करने वाले पहले और आखिरी व्यक्ति नहीं होंगे, और लोगों को इंटरनेट पर इन नई पीढ़ी के हमलों का शिकार बनने से बचने के लिए और भी अधिक स्मार्ट होने की आवश्यकता होगी।

समाचार तकनीक एआई क्लोनिंग का खतरा: गूगल का कहना है कि हैकर्स एक दुष्ट जेमिनी एआई चैटबॉट बनाने की कोशिश कर रहे हैं
अस्वीकरण: टिप्पणियाँ उपयोगकर्ताओं के विचार दर्शाती हैं, News18 के नहीं। कृपया चर्चाएँ सम्मानजनक और रचनात्मक रखें। अपमानजनक, मानहानिकारक, या अवैध टिप्पणियाँ हटा दी जाएंगी। News18 अपने विवेक से किसी भी टिप्पणी को अक्षम कर सकता है. पोस्ट करके, आप हमारी उपयोग की शर्तों और गोपनीयता नीति से सहमत होते हैं।

और पढ़ें

Latest Posts

Subscribe

Don't Miss