आखरी अपडेट:
एआई क्लोन कंपनियों के लिए एक गंभीर खतरा बन जाएंगे और ये हमले कैसे किए जाते हैं, इसके बारे में Google ने चिंताजनक विवरण साझा किया है।

Google पीड़ितों पर हमला करने के लिए AI मॉडल की क्लोनिंग करने वाले हैकरों के बारे में चेतावनी दे रहा है। (फोटो: एआई जनित)
Google और अन्य तकनीकी कंपनियों के पास AI के उदय के बारे में चिंतित होने के और भी कारण हैं और यह केवल कोडर को बदलने या आपकी नौकरियां छीनने के बारे में नहीं है। Google ने एक विस्तृत रिपोर्ट पेश की है जिसमें कहा गया है कि कुछ हमलावरों ने जेमिनी को एआई मॉडल का क्लोन संस्करण बनाने के लिए प्रेरित करने की कोशिश की, जो अगले कुछ वर्षों में एआई क्षेत्र के संचालन पर व्यापक प्रभाव डाल सकता है।
कंपनी इसे “आसवन हमले” कह रही है, जिसे एआई चैटबॉट को अपने मॉडल के बारे में गोपनीय विवरण साझा करने और पृष्ठभूमि में यह कैसे काम करता है, को साझा करने के लिए डिज़ाइन किया गया है।
हमने एआई के विभिन्न रूपों के ख़राब होने के बारे में सुना है, जिसमें नियमित रूप से दिखने वाले संकेतों को दुर्भावनापूर्ण कोड के साथ इंजेक्ट करने की क्षमता भी शामिल है, जिसका उपयोग डेटा चोरी करने के लिए किया जा सकता है। लेकिन हैकर्स द्वारा एआई को तोड़कर क्लोन बनाने में सक्षम होने का जोखिम, यह खतरे का एक और स्तर है।
प्रॉम्प्ट से एआई क्लोन: Google ने क्या कहा है
Google का कहना है कि हमलावर “मॉडल एक्सट्रैक्शन” के साथ जेमिनी का क्लोन बनाने की कोशिश कर रहे हैं और यह एआई चैटबॉट (किसी को भी) को 100,000 प्रॉम्प्ट खिलाकर और इसे बेहतर विवरण प्रकट करने के लिए आसानी से किया जाता है जो इसे टिक कर देता है। कंपनी ने चेतावनी दी कि सभी डेटा का उपयोग मौजूदा/प्रतिस्पर्धी एआई मॉडल को बनाने या बढ़ाने के लिए किया जा सकता है।
Google ने पहले भी ये आरोप लगाए हैं, लेकिन नई रिपोर्ट में साझा किए गए विवरण से पता चलता है कि ये हमले निजी कंपनियों (इसके प्रतिद्वंद्वियों) या यहां तक कि शोधकर्ताओं द्वारा किए गए हैं, जो इन्हें रोकने के लिए आवश्यक प्रभाव और शक्ति के स्तर के साथ संभव नहीं लगता है।
दुष्ट एआई हर जगह
Google ने जो साझा किया है वह उन कंपनियों के लिए चिंताजनक होना चाहिए जो AI व्यवसाय में हैं लेकिन उनके पास Google के समान संसाधन या जनशक्ति नहीं है जो न केवल उन्हें ऐसे हमलों का पता लगाने में मदद कर सके बल्कि उन्हें रोक भी सके।
कल्पना कीजिए कि अगर हैकर्स छोटी कंपनियों के एआई टूल्स की क्लोनिंग में इन तरकीबों का इस्तेमाल करने में सफल हो जाते हैं, तो पूरा उद्योग इस बात पर लगाम लगाने के लिए संघर्ष करेगा कि तकनीक कैसे विकसित होती है, और अगर ऐसा होता भी है, तो उनकी निगरानी से इसे चुराया जा सकता है। एआई मॉडल के विचारों और विचार प्रक्रिया को चुराने से व्यवसायों पर बड़े पैमाने पर असर पड़ सकता है, जो पहले से ही उन्हें चालू रखने और विकसित करने के लिए अरबों खर्च कर रहे हैं।
बचना मुश्किल
नियमित उपयोगकर्ताओं के लिए, जो एआई मॉडल को शक्तिशाली बनाने का वास्तविक स्रोत हैं, उन्हें मूल और नकली एआई मॉडल के बीच अंतर करने में कठिनाई होगी।
डेटा स्क्रैपिंग ऐसे स्तर पर हो सकती है जहां आपकी सारी जानकारी सिस्टम में फीड हो जाती है जिससे आपको विश्वास हो जाता है कि दुष्ट एआई संस्करण वास्तव में मुख्य एआई है जिसका आप इतने समय से उपयोग कर रहे हैं। मिथुन संभवतः इन क्लोनिंग हमलों का सामना करने वाले पहले और आखिरी व्यक्ति नहीं होंगे, और लोगों को इंटरनेट पर इन नई पीढ़ी के हमलों का शिकार बनने से बचने के लिए और भी अधिक स्मार्ट होने की आवश्यकता होगी।
कैलिफ़ोर्निया, यूएसए
13 फरवरी, 2026, 10:44 IST
और पढ़ें
